So lagert Facebook den Hass im Netz in Billiglohnländer aus

Content-Moderatoren müssen Schreckliches von den Nutzern von Facebook und Twitter fernhalten. Eine Dokumentation zeigt die Welt der Internet-Saubermacher.


Von den glänzenden Fassaden, begrünten Innenhöfen und einer von oben verordneten Work-Life-Balance ist in Manila nicht viel zu sehen oder zu spüren. Das Silicon Valley ist hier nicht nur geografisch weit weg. Fern von der freundlichen Weltverbesser-Atmosphäre sitzen viele der Firmen, die dafür sorgen, dass der Nutzer der Produkte aus dem Digital-Tal nichts von den dunklen Seiten der sozialen Netzwerke mitbekommt.

Hass, Propaganda, Mobbing, Gewalt – die Abgründe des Menschlichen haben sich längst auch digitalisiert. Und Konzerne wie Youtube, Facebook oder Twitter scheinen noch kein Allheilmittel dagegen gefunden zu haben. Oft setzen sie deshalb auf menschliche Arbeitskraft.

Weltweit sind laut Unternehmensangaben 7500 Mitarbeiter im Einsatz, allein in Deutschland beschäftigt Facebook rund 1.500 Mitarbeiter bei externen Dienstleistern in Essen und Berlin, bis Ende des Jahres sollen es 2000 sein. Dort scheinen die Mitarbeiter motiviert und gut betreut. Vier bis fünf Psychologen stehen den Mitarbeitern bei Bedarf zur Verfügung.


Der Dokumentarfilm „The Cleaners“, der am Donnerstag in die Kinos gekommen ist, zeigt jedoch auch eine andere Seite: Löschen, ignorieren, löschen, ignorieren. Innerhalb von Sekunden müssen Angestellte von externen Dienstleistern auf den Philippinen entscheiden, ob Inhalte auf Facebook, Twitter oder Youtube zu sehen bleiben oder nicht. Sie stehen unter einem extremen Druck.

„Es geht längst nicht mehr nur um Katzen- und Urlaubsvideos“, sagt Moritz Riesewieck, einer der beiden Filmemacher von „The Cleaners“. Dem Zuschauer wird spätestens klar, worüber er spricht, als im Film ein sogenannter Content Moderator von Enthauptungen erzählt. Der Filipino löscht für seinen Arbeitgeber im Auftrag von sozialen Netzwerken Inhalte. Er sagt, dass er genau erkennt, mit welcher Art von Messer ein Mensch geköpft worden ist.

Und er ist wohl nicht der einzige. Zehntausende sitzen bei verschiedenen Outsourcing-Unternehmen in Entwicklungsländern acht bis zehn Stunden am Tag vor Bildschirmen, um soziale Netzwerke sauber zu halten.

Die Filmemacher Hans Block und Moritz Riesewieck sind innerhalb von zwei Jahren sechs Mal auf die Philippinen gereist, um diese Schattenindustrie zu dokumentieren.


Wie viele der sogenannte Content Moderatoren es genau gibt, ist nicht klar. „Allein in Malina arbeiten über 10.000 Menschen. Die Zahl kann allerdings deutlich höher sein, weil es dort viel mehr Firmen gibt, von denen wir einige vielleicht gar nicht gefunden haben“, erklärt Riesewieck.

Stundenlohn: ein bis drei Dollar

Für ein bis drei Dollar pro Stunde versuchen die Content Moderatoren in Manila, den Hass zu begrenzen. Eine Arbeit, die extrem belastend ist. Im Film berichten sie nicht nur von traumatisierenden Bildern, sondern auch von Kollegen, die sich das Leben nahmen, weil sie dem Druck nicht standhielten.

Und trotzdem scheinen sie stolz auf das zu sein, was sie machen. „Sie sehen das als einen der wichtigsten Jobs unserer Zeit. Sie sagen: Wir können uns nicht vorstellen, wie das Internet ohne ihre Arbeit aussehen würde. Und trotzdem ist das eben traumatisierend“, erklärt der zweite Filmemacher, Hans Block.

Riesewieck ergänzt: „Die Religion bietet ihnen auch ein wichtiges Narrativ, um die Arbeit nicht als Drecksjob zu sehen, sondern als Aufopferung für die Sünden dieser Welt. Sie denken, sie opfern ihr Seelenheil, um die Sünden aus dem Netz zu fischen. Deshalb können diese Menschen so ausgebeutet werden.“

Spätestens, seitdem Medien über die Zustände im Arvato-Löschzentrum in Berlin berichteten, gibt es auch in Deutschland eine sensiblere Öffentlichkeit für das Thema. Facebook versucht sich deshalb im Gegensatz zu anderen Konzernen in Transparenz: Journalisten und Politiker wurden zu Besuchen in die Zentren in Essen und Berlin eingeladen.

Mitarbeiter sagen dann, dass es natürlich vorkomme, dass verstörende Inhalte unter die Haut gingen – dann mache man eine kurze Pause, schnappe frische Luft, um das Gesehene zu verarbeiten. Zudem versichern die Dienstleister, die im Auftrag von Facebook arbeiten, dass es Psychologen an den Standorten gäbe, die den Mitarbeitern immer zur Verfügung stünden.

Auch Facebook-Managerin Monika Bickert versichert dem Handelsblatt: „Die Menschen, die für Facebook die Inhalte prüfen, haben überall auf der Welt Zugang zu psychologischer Beratung.“ Man stelle sicher, dass die Teams die notwendige Unterstützung erhielten, „sei es durch Prozesse, die eine schnellere Eskalation bei schwierigen Entscheidungen ermöglichen oder die psychologische Betreuung und Unterstützung, die sie gegebenenfalls benötigen.“

Die Social Community Standards will das Unternehmen nun regelmäßig aktualisieren. Die Richtlinien, an die sich auch die Mitarbeiter halten sollen, die die Inhalte überprüfen, sind öffentlich einsehbar.

Es sind eine Reihe von Maßnahmen, mit denen Facebook das verlorene Vertrauen wieder zurückgewinnen will. Mitarbeiter des Unternehmen sind zudem verstärkt unterwegs um zu erklären, was Facebook gegen Hasskommentare und illegale Inhalte unternimmt.

Facebook mit seinen rund zwei Milliarden Nutzern ist zu einem gesellschaftlichen Spiegel geworden. Wann immer eine Krise oder ein Konflikt irgendwo auf der Welt entsteht, sie findet ihre Entsprechung in der digitalen Sphäre: „Mittlerweile geht es um eine digitale Öffentlichkeit. Es gibt Menschen, die sich ausschließlich über soziale Netzwerke informieren“, sagt Filmemacher Riesewieck.

Hass wird gezielt geschürt

Die Entscheidungen, was sie dort sähen, würden von einigen großen Unternehmen getroffen, die diese wiederum an Billiglöhner in Entwicklungsländern auslagern, kritisiert er . Als Beispiel führt „The Cleaners“ unter anderem die Verfolgung der Rohingya in Myanmar an, wo auch nach Ansicht von Vertretern der Vereinten Nationen gezielt der Hass über soziale Netzwerke geschürt wurde.

Facebook bezog auf der Digitalkonferenz Republica diesbezüglich Stellung und bekundete Nachholbedarf: Es brauche mehr Experten, die sich mit kulturellen und sprachlichen Besonderheiten auskennen und entsprechend erkennen können, wie Hass in speziellen Regionen befördert und verbreitet würde.


In vielen Fällen setzten die Konzerne bereits auf Technologie: Erin Saltman, Chefin von Facebooks Anti-Terror-Einheit für Europa, Afrika und den Nahen Osten, sagte im Rahmen der Digitalkonferenz Republica dem Handelsblatt : „Technologie hilft sehr im Einsatz gegen Terrorismus. Wir setzen Machine-Learning-Werkzeuge in Kombination mit menschlicher Expertise ein.“

Bei Facebook kommt zum Beispiel bereits ein System zum Einsatz, das bereits im Hochlade-Prozess analysiert, ob in dem Video beispielsweise eine Enthauptungsszene zu sehen ist und dies dann ablehnt. Ob das am Ende das Leben der philippinischen Arbeitskräfte verändern wird, bleibt abzuwarten.