Die Wächter des Internets
Facebook hatte im vergangenen Jahr in Deutschland täglich über 23 Millionen aktive Nutzer. Geteilt werden jeden Tag 250 Millionen Fotos und über 100 Millionen Stunden Videomaterial. Häufig handelt es sich um die ersten Schritte der Kinder, ein Bild mit dem Abiturzeugnis in der Hand oder ein Selfie mit Freunden. Was bei den wenigsten Nutzern auf der Timeline erscheint: Kinderpornografie, Folter-Videos oder Anzeigen für Auftragsmorde.
Die Content Moderatoren
Die Dokumentation „The Cleaners – Im Schatten der Netzwelt“ von den deutschen Filmemachern Moritz Riesewieck und Hans Block erzählt die Geschichte tausender „Content Moderatoren“. Täglich sichten diese jeweils bis zu 25.000 Beiträge, die Nutzer auf Facebook als unangebracht melden. Bei jedem Post müssen sie immer wieder entscheiden: Löschen oder ignorieren.
Laut den anonymen Quellen, mit denen das Dokumentations-Team in Manila, einem der größten Standorte für Commercial Content Moderation, geredet hat, wollen sie die Social Media Plattformen gesund halten und die Nutzer schützen. Der Arbeitsalltag, den sie beschreiben, treibt viele Content Moderatoren jedoch nach einigen Monaten dazu, zu kündigen. „Das zu sehen, war für mich unerträglich.“, erklärt eine von den für die Dokumentation interviewten Arbeiterinnen. Obwohl es Stellen und Ansprechpartner für psychologische Beratung in der Firma gäbe, würde man dort nur hören, dass die Belastung zum Job gehöre.
Wie Facebook zensiert
Nicht nur die mentale Belastung der Moderatoren sei ein Problem, erklärt Sarah T. Roberts, Dozentin an der University of California in Los Angeles, in ihrer 2014 erschienenen Dissertation „Behind the Screen: The hidden digital labor of commercial content moderation“. Laut Roberts sind in vielen Ländern das Internet und Social-Media-Plattformen die primären Kommunikationswege. Von wem diese kontrolliert und gestaltet werden, übernimmt eine Schlüsselfunktion für die öffentliche Darstellung und somit Wahrnehmung der Realität. Weiter erklärt sie, dass die Bürger keine andere Wahl hätten, als sich privaten Anbietern zuzuwenden, wenn der Staat es nicht schafft, einen fairen und ungehinderten Zugang zum Internet und zu Informationen herzustellen.
Auf diese „nicht-öffentlichen“ Unternehmen haben die Bürger als demokratische Gruppe allerdings keinen Einfluss, da die Unternehmen nur eine enge Beziehung zum Rechtssystem ihres Ursprungslandes pflegen. Der Kontakt zu ausländischen Regierungen besteht nur in Einzelfällen. Der User bekommt also nur zu sehen, was im Silicon Valley als „richtig“ angesehen wird. Dort bestimmen kleine Gremien, was „angebracht“ ist und was nicht und beeinflussen somit das politische Klima und die Realität, in der Millionen Menschen leben. Die Nutzer haben kaum Einfluss auf die Entscheidungen und Arbeitsweisen der bedeutendsten Standorte der IT-Branche.
Likes und Luftangriffe
Dass ein Video einer Enthauptung nichts auf Facebook zu suchen hat, ist für die Content Moderatoren in Manila selbstverständlich. Doch was ist, wenn es sich dabei um ein Kriegsverbrechen handelt?
Abdulwahab Tahhan ist seit 2016 für das Projekt „Airwars“ tätig. Durch sogenannte „Open Source Investigation“, also das Auswerten öffentlich zugänglicher Materialien, protokollieren und archivieren Tahhan und seine Kollegen Luftangriffe im Syrien-Krieg. Dabei beobachten sie Social Media-Plattformen wie Facebook oder Twitter in Echtzeit und versuchen Aufnahmen von Luftangriffen geographisch zuzuordnen. Würde „Airwars“ die Aktivitäten in Syrien nicht live beobachten, könnten die hochgeladenen Daten durch Content Moderation gelöscht werden.
„Ich würde gerne sehen, wie die Plattformen mehr moralische Verantwortung übernehmen, denn diese Videos, diese Posts, sind Beweismittel für das, was passiert.“ erklärt Tahhan. „Durch das Löschen verschwinden die Beweise und vielleicht kommt der Angreifer davon.“ Seiner Meinung nach, sollten die Social-Media Seiten sich an das halten, was sie versprechen und die fortlaufende Vernetzung der Welt fördern.
Ganz oder gar nicht
Es bleibt abzuwarten, wie die „Silicon Valley Giganten“ in Zukunft mit der Kritik an ihrem Content Moderation-System umgehen werden. Doch wie wir von vielen kritischen Stimmen hören: Die Richtlinien, mit denen die Content Moderatoren arbeiten, müssen überarbeitet und genauer an besondere Umstände angepasst werden. Denn so einfach es auch klingt: Viele Probleme, die die Content Moderation versucht mit dem Ansatz „löschen oder ignorieren“ zu beheben, sind nicht so einfach aus der Welt zu schaffen. Vielmehr braucht es einen genaueren Einschätzungsprozess, in dem entschieden wird, ob die gemeldeten Inhalte an jemanden weitergegeben werden können, der die Probleme tatsächlich löst und nicht nur verschwinden lässt.