Zehn Sekunden für eine Entscheidung – Seite 1

Ein Foto eines Hundes, der mit einer Leine am Hals gezerrt wird und offensichtlich keine Luft bekommt, ist in Ordnung. Ein Video davon nicht. Ein Erwachsener packt wiederholt ein Kind am Arm und schleudert es umher – kein Problem. Auch Bilder von Menschen mit Essstörungen sind erlaubt, solange sie niemand anfeuert. "Ich bring dich um, John!" ist eine akzeptable Aussage. "Ich bring dich um, John, ich hab das perfekte Messer!" nicht. Stillende Mütter? Generell okay. Sex? Wenn dann nur gemalt, bitte. Aber nicht am Computer.

Erstmals bekommt die Öffentlichkeit einen Einblick, wann und wie Inhalte auf Facebook moderiert werden. Der britische Guardian hat mehr als 100 interne Dokumente erhalten (hier eine Auswahl einiger Originaldokumente, die von dem Medium veröffentlicht wurden) und ausgewertet. Sie zeigen, wie speziell die Auswahlkriterien teils sind – und wie schwierig es für die häufig freien Mitarbeiter ist, richtige Entscheidungen zu treffen und der Masse der gemeldeten Beiträge beizukommen.

7.500 Moderatoren für zwei Milliarden Nutzer

In Deutschland hat die Debatte um Hasskommentare und die Löschpraxis sowohl eine eigene deutsche Taskforce als auch ein Facebookgesetz (eigentlich: Netzwerkdurchsetzungsgesetz , NetzDG) hervorgebracht. Wird es verabschiedet, verpflichten sich Plattformbetreiber, gemeldete rechtswidrige Inhalte binnen 24 Stunden zu löschen.

Im Herbst gab es eine Kontroverse um ein historisches Kriegsbild, das von Facebook gelöscht wurde. Fake-News wurden während des US-Wahlkampfes und darüber hinaus zum geflügelten Wort. Die neue Livevideo-Funktion spült immer häufiger Videos von Morden, Suiziden und Vergewaltigungen in die Timelines der Nutzer. Manchmal werden die Streams binnen Minuten gestoppt, manchmal bleiben die verstörenden Aufnahmen einen ganzen Tag online.

Facebook reagiert auf die Kritik. Man wolle die Nutzer vor ungewünschten Inhalten schützen und dafür sorgen, dass sie sich sicher fühlen. Anfang Mai gab das Unternehmen bekannt, im Verlauf des Jahres 3.000 zusätzliche Moderatoren einstellen zu wollen, zusätzlich zu den 4.500 bestehenden. 7.500 Mitarbeiter also, die sich um die Inhalte von mittlerweile fast zwei Milliarden Nutzern kümmern sollen. Das klingt nicht nur, was die Zahlen angeht, immer noch nach einer nahezu aussichtslosen Aufgabe. Auch die Leitlinien, nach denen diese Moderatoren arbeiten sollen, sind alles andere als eindeutig.

Die Prüfer müssen aufs Wort genau abwägen

Etwa im Fall von selbstverletzendem Verhalten. So geht aus den jetzt bekannt gewordenen Dokumenten hervor: Videos, in denen sich Personen selbst Schaden zufügen oder sich gar umbringen, werden nicht sofort gelöscht. Sie könnten "eine aufklärerische Wirkung haben" und Freunde oder Familie dazu bringen, den Menschen zu helfen, heißt es dort. Ist ein Suizidversuch immanent, können die Moderatoren entsprechende Hilfsorganisationen alarmieren. Doch gibt es Ausnahmen: So sollen Inhalte gelöscht werden, wenn den Personen offensichtlich nicht mehr geholfen werden kann, um keinen Werther-Effekt hervorzurufen. In Einzelfällen könne ein Suizid aber Nachrichtenwert haben, dann sollten die Inhalte wiederum stehenbleiben. Die Moderatoren müssen also eine ganze Reihe von Faktoren abwägen.

Das gilt auch für "glaubwürdige Gewaltandrohungen". Gelöscht werden nur Inhalte, die zuvor gemeldet wurden und die wirkliche Gewalt nach sich ziehen könnten. Denn "Menschen drücken Verachtung und Meinungsverschiedenheiten oft dadurch aus, dass sie leichtfertig und in nicht Ernst gemeinter Weise Gewalt androhen oder herbeiwünschen", schreibt Facebook. Pauschale Gewaltandrohungen gegen "bedrohte Gruppen" wie etwa Obdachlose sollen dagegen immer gelöscht werden. Drohungen gegenüber Einzelpersonen müssten auf ihre Plausibilität hin überprüft werden, also ob ein genauer Tatort oder Tatzeit vorkommen.

Wie der Guardian schreibt, sei in einem internen Dokument die Rede von 6,5 Millionen Meldungen pro Woche – und das sind nur die, die mutmaßliche gefälschte Profile betreffen. Die Zahl der insgesamt von den Nutzern gemeldeten Inhalte dürfte höher liegen. Um diese Masse zu bewältigen, bleibt den Moderatoren nicht viel Zeit, sich mit jeder Meldung lange zu befassen. Teilweise hätten sie nur zehn Sekunden, um eine Entscheidung zu treffen, zitiert der Guardian eine Quelle. Allerdings heißt es in den jetzt geleakten Leitlinien auch, alle Mitarbeiter könnten prinzipiell jede Meldung "eskalieren" und an ihre Vorgesetzten senden, sollten sie sich unsicher sein.

Grauzonen gibt es immer – und dann?

Die Beispiele zeigen: Facebook ist bemüht, in einigen Bereichen möglichst genaue Regeln zu definieren. Es versucht, globale Richtlinien zu etablieren, verliert sich dabei aber teilweise in Details und relativiert sich somit selbst. Einige spezifische Regeln scheinen nicht mehr als eine Einzelreaktion auf Kritik zu sein. So bezieht sich eine Vorschrift konkret auf Nacktheit im Kontext von Holocaust-Aufnahmen (sie sind aus historischen und dokumentarischen Gründen prinzipiell erlaubt). Sie könnte in Folge der Debatte um eine Kriegsaufnahme aus dem Vietnamkrieg entstanden sein.

Facebook hat die Kontrolle über die Inhalte verloren.
So formuliert es ein Insider im "Guardian"

Je mehr Ausnahmen es gibt, desto schwieriger ist die Entscheidung für die Moderatoren. Zumal es in vielen Fällen unmöglich ist, eindeutig zu entscheiden. Etwa wenn es um Religion geht, die je nach Standort der Nutzer einen anderen Stellenwert haben könnte. "Wir haben eine vielfältige, globale Community. Die Menschen haben unterschiedliche Einstellungen dazu, was sie teilen dürfen. Graubereiche wird es immer geben", sagt Monika Bickert, Facebooks Head of Global Policy Management im Gespräch mit dem Guardian. Kontext sei deshalb immer wichtig. Das ist einerseits richtig und beugt zu strengen Löschregeln vor. Andererseits bleibt die Entscheidung somit immer auch im Ermessen einzelner Moderatoren; eine gewisse Willkür ist nicht ausgeschlossen.

Dazu kommt eine psychologische Komponente. Recherchen, unter anderem der Süddeutschen Zeitung und Wired haben gezeigt, unter welchen teils prekären Bedingungen die Moderatoren für Facebook arbeiten. Die häufig über externe Dienstleister angestellten Menschen verbringen ihren Tag damit, gewalttätige oder verstörende Inhalte zu sichten. Psychologische Hilfe bekommen sie selten.

Am Ende belegen die Dokumente, wie Facebook versucht, kontroversen Inhalte beizukommen, indem es teils komplexe Regeln definiert, die anschließend von Einzelpersonen interpretiert werden müssen – eine Aufgabe, die allein ob der Masse an Texten, Fotos und Videos schwieriger denn je scheint. Oder, wie ein Insider im Gespräch mit dem Guardian sagt: "Facebook hat die Kontrolle über die Inhalte verloren."