KI-Trainer für Google berichten über prekäre Arbeitsbedingungen

Tausende menschliche Arbeitskräfte trainieren und moderieren KI-Modelle von Google wie Gemini unter hohem Druck, bei schlechter Bezahlung und mit teils verstörenden Inhalten. Diese „Rater“ sind entscheidend dafür, dass die KI sicher und intelligent wirkt. Das berichtet die britische Zeitung The Guardian unter Berufung auf zehn aktuelle und ehemalige Mitarbeitende.

Die Beschäftigten werden oft für vage beschriebene Stellen angestellt und müssen dann ohne Vorwarnung gewalttätige oder sexuell explizite Inhalte moderieren. Eine Mitarbeiterin, Rachael Sawyer, gab an, dass der Druck, Dutzende Aufgaben pro Tag in wenigen Minuten zu erledigen, zu Angstzuständen geführt habe. Psychologische Unterstützung fehle. Zeitvorgaben für komplexe Aufgaben wurden laut Berichten halbiert, was die Qualität der Arbeit beeinträchtigt.

Viele dieser Arbeitskräfte sind hochqualifiziert, darunter Lehrkräfte und Autoren, verdienen aber nur zwischen 16 und 21 US-Dollar pro Stunde. Sie äußern Bedenken hinsichtlich der Sicherheit der KI-Produkte. So müssen sie auch Themen bewerten, für die ihnen die Expertise fehlt, etwa aus der Astrophysik oder der Medizin.

Zudem seien Sicherheitsrichtlinien gelockert worden. Einem Bericht zufolge darf die KI nun Hassrede wiedergeben, solange der Nutzer sie zuerst eingegeben hat. Der Forscher Adio Dinika bezeichnet das System als ein „Pyramidensystem menschlicher Arbeit“. Google erklärte, die Rater seien bei Zulieferern angestellt und ihr Feedback sei nur einer von vielen Datenpunkten zur Messung der Systemleistung.

Mehr zum Thema:

Bleib up-to-date: