Welche Ideen, Abbildungen und Nachrichten im Netz und in den sozialen Medien zirkulieren dürfen und welche nicht, darüber entscheiden immer stärker Social-Media-Plattformen. Was wir auf Facebook lesen, ist gefiltert – und das hat nicht nur mit Filterblasen-Effekten zu tun. Bei Facebook sitzen auch echte Menschen, die jeden Tag nichts anderes tun, als Facebook-Inhalte zu sichten und gegebenenfalls zu löschen. Man nennt sie „Cleaner“ oder „Content-Moderatoren“.
Ihr Job ist umstritten und erntet Kritik: Zu wenig Personal müsse in zu kurzer Zeit zu viele komplizierte Entscheidungen treffen – nach Kriterien, die für den Nutzer intransparent seien und denen es an demokratischer Legitimation fehle. Obendrein sollen die „Cleaner“ schlecht ausgebildet, schlecht geschützt und miserabel bezahlt sein. Facebook selbst sieht das anders.
Der Berufszweig ist eine Art digitale Schattenindustrie. Content-Moderatoren werden oft nicht bei den großen Netzwerken direkt beschäftigt, sondern bei Personaldienstleistern, zum Beispiel auf den Philippinen. Schätzungen zufolge arbeiten allein dort zwischen 100.000 und 150.000 Menschen als Content-Moderatoren, die Dunkelziffer dürfte größer sein. Es gibt keine vollständigen Angaben dazu, wie viele Menschen weltweit diesen Job erledigen. Wir haben mit einer jungen Frau* gesprochen, die zwei Jahre als Cleanerin gearbeitet hat.
fluter.de: Kürzlich löschte Facebook ein Bild auf unserer Seite, auf dem es um Intersexuelle ging. Wie läuft so eine Sperrung ab?
Cleanerin: Ein Nutzer sieht euer Bild in seinem Newsfeed oder einer Gruppe, findet es anstößig und meldet es. So wird aus dem Bild ein problematischer Inhalt – und ein Ticket, das einem Content-Moderator zugewiesen wird. Der prüft den Inhalt und entscheidet, ob er auf der Plattform bleibt oder gelöscht wird.
Das hat uns schon überrascht – bei so einem wichtigen Thema.
Entfernt werden Inhalte nur dann, wenn sie das Regelwerk der Plattform nachweislich verletzen. Euer Bild verstieß gegen die Richtlinien zur Darstellung von Nacktheit. Hinter der Löschung lag also keine ideologische Entscheidung gegen Transmenschen.
„Man räumt weg, was dumme, verrohte und manchmal auch berechnende Nutzer hochladen“
Du hast zwei Jahre als Content-Moderatorin für Facebook gearbeitet. Wie sieht der Arbeitsalltag aus?
Das kommt sehr auf den Markt an, den ein Moderator abdeckt. Diese Märkte werden nach Region und Sprache unterschieden, in großen Märkten müssen Content-Moderatoren täglich bis zu 4.000 Tickets abarbeiten. Ich wurde in einem kleinen Markt eingesetzt, hatte höchstens 2.000 Tickets am Tag. Eigentlich habe ich mich die meiste Zeit abgelenkt: mit Freunden geschrieben, Nachrichten gelesen, Filme gesucht, die ich nach Feierabend sehen wollte, ein paar Mal habe ich die Filme sogar während der Arbeit geschaut. Heute denke ich, diese Unterbeschäftigung hat mich auch geschützt. Moderieren war nie übermäßig anstrengend oder fordernd, aber auf Dauer ziemlich frustrierend und verwirrend: Letztlich sortierte ich den Schrott der Gesellschaft. Man räumt weg, was dumme, verrohte und manchmal auch berechnende Nutzer hochladen. Ich war fast glücklich, als mein Vertrag nicht verlängert wurde.
In manchen Ländern ist das Cleanen ein angesehener Job. Dort heißt es, man moderiere für eine bessere Welt, okay bezahlt, in einem sauberen Büro und nicht selten mit Klimaanlage und Blick über die Stadt.
Zu Beginn war ich auch optimistisch, fast schon enthusiastisch. Das ging vielen so. Ich akzeptierte sogar 1.200 Euro Monatsbrutto, weil ich dachte, dass ich dort etwas wirklich Wichtiges tue. „Saving people’s lives“, wie sich das Unternehmen, das mich anstellte, gern auf die Fahnen schreibt. Aber als ich den Job und die Bedingungen in meinem Unternehmen kennengelernt hatte, entwickelte ich eine Abscheu gegen das Moderieren und die Arbeitsumgebung, ja gegen das Netzwerk selbst. Die meiste Zeit war es ein Job, den ich machte, um meine Rechnungen zu zahlen, bis ich etwas Besseres gefunden hätte.
Wurdet ihr Moderatoren ausgebildet?
Vor Antritt des Jobs gab es ein Training, eine Einführung in Facebooks Richtlinien und wie wir die Inhalte auf unseren Märkten technisch behandeln. Das Training ging über drei Wochen. Das war’s. Gab es dann Korrekturen oder Änderungen in den Richtlinien, wurden wir in ein Meeting beordert. Dort wurden die Neuregelung und ihre Anwendung von einem sogenannten Subject Matter Expert erklärt, einer Art Gutachter und Korrektiv für uns Moderatoren.
Waren Fehler erlaubt?
Jein. Von Content-Moderatoren werden 98 Prozent richtige Entscheidungen erwartet. Das ist schon mit einem eindeutigeren Regelwerk und in einer gesunden Arbeitsatmosphäre schwer zu erreichen. Für das Unternehmen standen perfekte Zahlen im Mittelpunkt, im Gegenzug wurde für uns Angestellte aber nicht viel getan.
Abbildungen von sexueller Gewalt, Folter und Mord, Hate Speech oder Fake News tagein, tagaus, das macht was mit einem. Wurdet ihr psychologisch betreut?
Dass für unsere mentale Verfassung gesorgt sei, schrieb sich das Unternehmen ganz groß auf die Fahnen. Wir wurden auch oft bestärkt, die Zeit mit den dortigen Psychologen wahrzunehmen. Regelmäßig genutzt hat das keiner der Kollegen, mit denen ich Kontakt hatte: Die Psychologen gaben vertrauliche Dinge oft an die Teamleiter oder die Chefetage weiter.
„Die Masse an Hate Speech hat mich mit der Zeit ziemlich mitgenommen. Ich schlief schlecht, hatte keinen Appetit, beschwerte mich durchgehend, sah alles negativ“
Wie hast du den Job ohne psychologische Hilfe durchgehalten?
Ich hatte das Glück, auf einem vergleichsweise kleinen und gemäßigten Markt zu moderieren. Die Zahl der wirklich heftigen Tickets hielt sich in Grenzen. Dafür hat mich die Masse an Hate Speech mit der Zeit ziemlich mitgenommen. Ich schlief schlecht, hatte keinen Appetit, beschwerte mich durchgehend, sah alles negativ. Und ich moderierte immer schlampiger. Die Motivation, mich weiterzubilden oder beim Regelwerk auf dem aktuellen Stand zu bleiben, war komplett dahin.
Ziemlich kontraproduktiv für den einmal mit so viel Idealismus begonnenen Job.
Ja, ich konnte förmlich zusehen, wie ich den Anschluss ans Regelwerk verlor. Daneben verbrachten die Hardliner ganze Mittagspausen und Feierabende mit Präzedenzfällen. Was für deutsche Augen wie eine einfache und korrekte Regel aussieht, kann in kulturell oder sprachlich anders gelagerten Märkten höllisch komplex werden. Die Besonderheiten jedes Marktes verlangen Erfahrung, eine Menge Fingerspitzengefühl und …
… ein möglichst diverses Team.
Genau. Solche Dienstleister müssen sehr darauf achten, ihre Teams nach Geschlecht, Herkunft oder Religion vielfältig aufzustellen, um für so viele Facebook-Märkte wie möglich lukrativ zu sein. Aber letztlich sind diese Vielfaltsmühen für die Tonne, wenn man sich ansieht, wie wenig durchdacht große Teile des Regelwerks sind.
„Das ganze 'Menschen verbinden, Menschen zusammenbringen' ist Quatsch, reine Show“
US-Präsident Donald Trump beschwerte sich kürzlich, dass die sozialen Netzwerke die freie Rede ersticken würden, indem sie konservative Stimmen stumm schalten. Wurdest du je angehalten, eine bestimmte politische Institution, Seite oder Person genauer im Blick zu behalten?
Ja, alle Moderatoren erhalten eine Übersicht über terroristische Organisationen und Akteure auf der ganzen Welt. Als die rechten Parteien in Europa immer stärker wurden, bekamen wir eine ähnliche Liste. Und den Hinweis, diesen Posts und Aktivitäten verstärkte Aufmerksamkeit zukommen zu lassen.
Die Welt zu einem besseren, aufgeklärten Ort zu machen ist nicht Facebooks Mission. Andererseits ist eine von Gewalt, Spam und Trollen geflutete Plattform schlecht fürs Geschäft. Hat Facebook ein nachhaltiges Interesse an der Moderation seiner Inhalte?
Zu einem gewissen Teil ja. Facebook muss seine Moderation ausweiten, um die Leute auf der Plattform zu halten. Denn sie wollen ja ihre privaten Daten und das Geld, das sie damit verdienen. Das ist es, was Facebook interessiert. Das ganze „Menschen verbinden, Menschen zusammenbringen“ ist Quatsch, reine Show.
Ist die Moderation durch Algorithmen so vielversprechend, wie es die sozialen Netze darstellen?
Da bin ich nicht sicher. Die Entscheidungen durch algorithmische Moderation, die ich gesehen habe, waren sehr anfällig. Gerade scheint die Moderation eher unzuverlässiger zu werden, wenn Menschen sie an Maschinen abgeben.
Aber wird es angesichts der Größe von Facebook je möglich sein, all den Content allein durch Menschen moderieren zu lassen?
Nein.
Nutzt du Facebook trotz deiner negativen Erfahrungen weiterhin privat?
Nach dem Job hat meine Nutzung wirklich abgenommen. Ich habe auch ernsthaft darüber nachgedacht, meinen Account zu löschen. Letztlich ist Facebook aber der einzige Ort, der mir zuverlässig zeigt, was in der Stadt los ist, wo meine Freunde sind, welche Veranstaltungen ich besuchen kann. Leider. Irgendwie wird man eingesogen, auch wenn man es gar nicht mehr möchte.
* Name der Redaktion bekannt
Titelbild: Fabian Rockenfeller
Weiterlesen:
„The Cleaners“ ist eine filmische Suche nach den Regeln, die bestimmen, was im Internet zu sehen ist und was verschwindet. Hier gehts zu unserer Rezension des Dokumentarfilms.
Facebook und der Journalismus – das war schon immer eine komplizierte Geschichte. Hier erfährst du mehr darüber, wie das Netzwerk mit Fake News umgeht.
Du willst wissen, wie Facebook mit deinen Daten umgeht? Dann solltest du das hier lesen.