"Kunst oder Porno?", fragt Moritz Riesewieck zu Beginn seines Vortrags auf der Berliner Digitalmesse Republica am vergangenen Montag. "Diese Frage stellen sich einige 18- bis 25-jährige Philippiner*innen jeden Tag etwa zehn Stunden lang." Regisseur Riesewieck erzählt von den jungen Content-Manager*innen des asiatischen Inselstaats, die dafür sorgen, dass Europäer*innen und Amerikaner*innen kein "Müll" in die Timeline schwappt.

"Müll", das sind zum Beispiel Vergewaltigungsvideos, Bilder, die Sex mit Kindern oder Tieren zeigen, Enthauptungen, die der sogenannte "Islamische Staat" durchführt – aber auch stillende Mütter. Moritz Riesewieck gründete die Gruppe Laokoon. Zusammen mit seinen Kollegen Hans Block und Omid Mirnour reiste er auf die Philippinen, um zu dokumentieren, wie die modernen Müllentsorger arbeiten.

Ausschlaggebend für die Recherche Laokoons war ein Artikel des amerikanischen Journalisten Adrian Chen, der 2014 von den "Content-Moderators" berichtete, sowie Forschungen der US-amerikanischen Medienwissenschaftlerin Sarah T. Roberts, die sich ebenfalls mit dem Thema beschäftigt und sich Laokoon anschloss.

Wenn Bilder oder Videos in sozialen Netzwerken wie Facebook hochgeladen werden, springt der Algorithmus einer Bilderkennungssoftware an. Der scannt die Uploads auf unerwünschte Inhalte wie Pornografie und Blut. Sind die Inhalte verdächtig, werden sie an die "Content-Moderators" weitergeleitet und erstmal nicht online gestellt. Das Gleiche geschieht mit Bildern, die bereits online sind, aber von anderen Usern als anstößig gemeldet werden.

Die Content-Moderator*innen, die für verschiedene sogenannte Outsourcing-Firmen arbeiten, schauen sich die fragwürdigen Inhalte an und entscheiden dann nach internen Kriterien-Katalogen, welche Videos und Bilder veröffentlicht werden dürfen und welche nicht.

Diese Vorgehensweise bringt zwei Probleme mit sich: Erstens, die Content-Moderator*innen werden jeden Tag mit Inhalten konfrontiert, die mitunter äußerst schockierend und angsteinflößend sind und daher psychische Schäden bei den Begutachtern hinterlassen können. Zweitens, die Auswahl der Inhalte erfolgt nach nicht öffentlich zugänglichen Kriterien. Sprich, es ist nicht eindeutig nachvollziehbar, wie die Moderator*innen ihre Entscheidungen treffen.

Im Februar 2012 spielte Amine Derkaoui, damals Mitarbeiter von oDesk, einer ehemaligen Outsourcing-Firma, die für Google und Facebook Inhalte überprüfte, dem Journalisten Adrian Chen einen internen Kriterienkatalog zu. Das geleakte Dokument gibt zumindest einen Einblick in die fragwürdige Vorgehensweise des Inhalteaussortierens:

  • Keine Camel Toes und Moose Knuckles
  • Keine stillenden Mütter, bei denen Brustansätze zu erkennen sind
  • Sexspielzeug darf nur in einem "Sex-Kontext" gezeigt werden
  • Keine Darstellung von Fetischen
  • Zertretene Schädel ja, aber nur, wenn kein Gehirn zu sehen ist

Dafür, dass Unternehmen wie Facebook, Tinder und Dropbox ihre Inhalte auf den Philippinen überprüfen lassen, sieht Moritz Riesewieck zwei Gründe: "Zum einen waren die Philippinen 50 Jahre amerikanische Kolonie, die Menschen da können also sehr gut Englisch. Zum anderen sind etwa 95 Prozent der Bevölkerung katholisch und haben ein Verständnis für christliche Werte."

Genau diese christlichen Werte würden allerdings allzu oft dazu führen, dass das Content-Löschen geradezu als Mission beworben und praktiziert würde. Die meisten Digital-Müll-Entsorger*innen sind zwischen 18 und 25 Jahre alt. Viele von ihnen sind sehr gläubig, empfinden Inhalte, die wir als "normal" einstufen würden, als "anstößig, verwerflich", beschreibt Riesewieck.

Was sind das für Inhalte? "Bilder von Brüsten zum Beispiel, die bei uns unter Ästhetik fallen würden. Aber auch Videos mit homosexuellen Inhalten oder kritischem religiösen Kontext. Jesus muss immer gut dabei wegkommen", sagt er. Zehn Prozent aller Bilder und Videos würden während einer Schicht gelöscht. Der Arbeitstag der Contentmanager*innen dauert neun Stunden, inklusive einer Stunde Pause. Jede*r schaut sich während seiner Schicht zwischen 3.000 und 6.000 Bildern an. "Unbezahlte Überstunden sind die Regel", sagt Riesewieck.

TaskUS, ein Content-Managing-Unternehmen, das Inhalte für die Dating-Plattform Tinder aussortiert, ließ seine Mitarbeiterräume von Priestern segnen, erzählt Riesewieck.

Er und seine Kollegen kontaktierten vor ihrer Reise Mitarbeiter verschiedener philippinischer Content-Managing-Firmen: "Viele von ihnen hatten große Angst, ihren Job zu verlieren und haben deshalb nicht mit uns gesprochen", sagt er. Trotz der psychisch belastenden Arbeit sei der Job der Content-Managerin, des Content-Managers sehr beliebt: "Es ist für die Mitarbeiter auch ein Stück weit cool zu sagen: 'Ich arbeite für Facebook oder Google', da fällt die Belastung hinter dem Schein eines tollen Internetjobs zurück."

Fragwürdiges Mitarbeiter-Bewerbungsvideo von TaskUs von Red Dot Videos auf Vimeo.

Einige erklärten sich dann doch dazu bereit, Riesewieck von ihrem Job zu erzählen: "Wir trafen alle heimlich und versteckt. Wir dürfen von keinem den richtigen Namen nennen. Bei einem ließen wir sogar unseren Auto-Motor laufen, weil er starke Angst hatte, dass ihn jemand hören könnte." Die Einstellung der Mitarbeiter wird durch einen Eignungstest geprüft. Jeder, der zum Beispiel bei TaskUS würde arbeiten wollen, müsse vorher Fragen zu seiner psychischen Verfassung beantworten.

"Da steht dann sowas wie 'Auf einer Skala von eins bis sechs, für wie bealstbar hältst du dich?' Niemand gibt bei einem Job, den er haben möchte, um Geld zu verdienen, an, dass er nicht belastbar sei", sagt Riesewieck. Er selbst wurde auf den Philippinen angeworben und habe bei so einem Test mitgemacht. Als die Mitarbeiter herausfanden, dass er Deutscher ist, wurde er abgelehnt: "Sie nehmen generell keine Deutschen", sei die Antwort gewesen.

Der Psycho-Test ist für die Content-Managing-Firmen nicht nur Einstellungskriterium, sondern auch Rückversicherung: "Jeder, der beklage, durch seine Arbeit gestresst zu sein oder psychische Probleme zu haben, wird damit abgekanzelt, dass er bei seiner Einstellung angegeben hat, fit und belastbar zu sein", sagt Riesewieck. Ein Teufelsspiel, das auf die Gesundheit vieler Mitarbeiter geht.

Riesewieck und sein Team sprachen auch mit der Psychologin Patrica Laperal von Behavioral Dynamics. Laperal entwirft solche Tests und betreut Content-Manager*innen. Was sie berichtet, klingt grauenhaft: "Patricia sagte uns, dass die meisten Mitarbeiter unter Schlafstörungen litten, Panikattacken oder Ängste hätten. Viele Frauen geben auch an, dass sie keine Lust mehr auf Sex mit ihrem Partner hätten, weil sie durch pornografische Inhalte oder gar Vergewaltigungsvideos, zu schockiert seien", sagt Riesewieck.

Die Recherche der Laokoon-Gruppe ist noch nicht beendet. Die Gruppe rund um Moritz Riesewieck will noch weitere Daten sammeln und Interviews führen, um Facebook und Co. mit den Ergebnissen konfrontieren zu können. Bislang gab es lediglich ein Telefonat mit einem Facebook-Mitarbeiter, über dessen Inhalt Riesewieck aber nichts sagen möchte. Zu einer Veranstaltung bei der Heinrich-Böll-Stiftung, bei der die Ergebnisse vor einigen Tagen zum ersten Mal präsentiert wurden, kam kein Vertreter der geladenen Firmen.

Laokoon will aus allen Erlebnissen das Stück "Die Passionsspiele des Internetzeitalters" am Theater Dortmund konzipieren. Riesewieck und sein Team sehen sich nicht als Journalisten, sondern als investigative Theatermacher, die die "schauderliche Realität auf die Bühne bringen".