P.M. Magazin

» Gerade bei den Plattformen gibt es keine Kontinuität, die Data Worker hangeln sich von Aufgabe zu Aufgabe «

2 US-Dollar

Warum? Nehmen Sie zum Beispiel ethnische Kategorien aus den USA: Da gibt es etwa weiße Menschen, schwarze Menschen, Latinos und Menschen asia­ tischer Abstammung. Das sind Kategorien, mit denen ein Mensch in Bangladesch oft erst mal nichts anfangen kann. Wenn er dann für seine Arbeit zu lange braucht oder fehlerhaft arbeitet, wird er vom Plattform-Algorithmus zurückgestuft und kriegt vielleicht bald keine Aufträge mehr. Abgesehen davon, dass es schon fragwürdig ist, von den Arbeitern zu verlangen, die Rasse von Personen anhand von Bildern zu erraten. Das ist bereits eine sehr umstrittene, aber leider auch häufige Aufgabe. Eine Möglichkeit, den Kunden zu fragen, haben sie in der Regel nicht. Werden die Data Worker auch mit Gewalt­ darstellungen konfrontiert? Das kommt auch vor. Und das hat natürlich Aus- wirkungen auf ihre Psyche. Dann allerdings haben sie keine Unterstützung, keine Kranken­ versicherung, keine Möglichkeit, sich krankschrei- ben zu lassen. Also schauen sie sich für ein paar Cent pro Aufgabe weiter Fotos von Missbrauch oder Mord an. Man sollte meinen, dass die Anbieter ein Interesse daran haben, solche Zustände zu verheimlichen. Wie bekommen Sie trotzdem Zugang für Ihre Forschung?

pro Stunde erhielten Menschen in Kenia, die ChatGPT für die Firma OpenAI trainierten. Das ergaben journalis­ tische Recherchen des US-Magazins »Time«

Das war einfach. Ich habe vor sechs Jahren ange- fangen, mich mit dem Thema zu befassen, und habe die entsprechenden Firmen angeschrieben. Sie waren sich nicht bewusst, wie problematisch ihre Beziehung zu den Datenarbeitern ist. Sie waren sogar geschmeichelt, dass jemand zu ihnen forscht. Als ich später meine Ergebnisse veröffent- lichte, änderte sich das natürlich, das Verhältnis wurde schwieriger. Aber jetzt hatte ich direkten Zugang zu den Arbeitern und Arbeiterinnen. Es kamen auch zunehmend welche direkt auf mich zu, um mir von ihrer Situation zu berichten. Wie sieht Ihre Forschung konkret aus? Miss­ bräuchliche Arbeitsbedingungen sind schwer in Daten zu fassen. Ich arbeite deswegen auch qualitativ, nicht quantitativ. Ich nutze also die individuellen Erfahrungen der Betroffenen, um Erkenntnisse zu gewinnen, anstatt statistische Erhebungen durchzuführen. Das bedeutet: viele Interviews führen, Verträge und Aufgabenbeschreibungen analysieren. Ich frage die Arbeiter, wie sie ihre Bezahlung vereinbaren und ob es ein

Debriefing nach dem Job gab. Wie sah das aus? Mittlerweile arbeite ich auch mit Data Workern als Co-Researcher zusam- men, da sie manche Dinge deutlich besser bewerten können als ich.

In dieser Aufgabe werden Sie die Rasse der Personen auf den Fotos bestimmen. Sie sollen nur eine der folgenden Kategorien wählen: · Weiß · Afroamerikanisch · Latinx oder hispanisch · Asiatisch · Indisch · Uneindeutig

In dieser Aufgabe werden Sie Hate Speech identifizieren. Auf Basis des Textes müssen Sie entscheiden: · Hate Speech: Ob der Nutzername Hassrede enthält. · None: Ob KEINE hasserfüllte oder beleidigende Sprache in dem Gegebenen ist. (sic) Definition: Wähle Hate Speech, wenn der Text etwas des Folgenden enthält: · Diskriminierung, Verunglimpfung, Negativität oder Gewalt gegen eine Person oder eine Gruppe auf Basis des geschützten Attributs. · Bezüge zu Hassgruppen oder Gruppen, die Menschen auf Basis eines geschützten Attributs attackieren.

Milagros Miceli trägt bei ihrer Arbeit viele Aufgaben zusammen, die Data Worker über die Plattformen von KI-Unternehmen ver- mittelt bekommen

02/2024 P.M. 67

Made with FlippingBook flipbook maker