Manchmal geraten Menschen zufällig an die Front. So wie Sophie Tibault. Die Französin hat vor ein paar Jahren ein Internetforum gepflegt, in dem sich Schwangere und junge Mütter austauschen. Sophie verfolgte ihre Diskussionen über Muttermilch und postnatale Depressionen und schlichtete, wenn nötig, einen Streit.

Dann bekam Sophie Tibault (Name von der Redaktion geändert) einen Job in der Europazentrale von Facebook in Dublin. Wieder arbeitete sie als Betreuerin der Community, und sie dachte, jetzt öffne sich die weite Welt für sie. Und genau das geschah.

Inzwischen kann Tibault eine Reihe von Terroristen und Mördern an der Art unterscheiden, mit der sie ihre Opfer enthaupten. "Sie haben verschiedene Stile", sagt sie. "Auch Dschihadist John hat einen." Der Brite hat besonders viele Geiseln des "Islamischen Staates" gefoltert und vor laufender Kamera enthauptet. "Es ist nicht so leicht, einen Kopf abzutrennen. Das dauert", sagt Sophie, und in dieser kurzen Äußerung wird ansatzweise deutlich, wie schwer die Videos auszuhalten sind, aber auch, wie Sophie damit umgeht. Sie reduziert, was sie sieht, auf den faktischen Kern und erfüllt ihre Aufgabe: Wird ihr ein solches Video von einem Nutzer gemeldet, schaut sie es sich ein Mal an. Dann löscht sie es.

Tibault zuckt nicht mit der Wimper, als sie ergänzt: "Und wenn im IS die Sonne untergeht, stehen die mexikanischen Gangs auf."

Facebook hat 1,4 Milliarden Mitglieder und ist dadurch ein Schauplatz für die Konflikte dieser Welt geworden. Alle Grausamkeiten und Scheußlichkeiten, die Menschen einander antun, finden ihren Weg in das Soziale Netzwerk. Sie werden hochgeladen, weitergeleitet, kopiert, es wird auf sie verlinkt, und sie werden geliked.

Aber Facebook war von Anfang an auch ein Versprechen. Es sollte familientauglich sein, zivilisiert. Die schlichte Frage lautet nun: Kann das bei so vielen Menschen überhaupt gelingen?

Kein anderer Digitalkonzern hat so früh begonnen, eine Antwort darauf zu suchen, und es ist bekannt, dass Facebook dabei eine Reihe von Fehlern gemacht hat. Mal schien das Unternehmen amerikanisch-prüde Moralvorstellungen durchsetzen zu wollen – selbst Bilder von antiken Statuen wurden da gelöscht, weil ein steinerner Penis zu sehen war. Später schien man allzu servil gegenüber Werbekunden. Aber das hat sich etwas abgeschliffen, der Konzern hat seine Regeln mehrfach verändert, auf seine Nutzer reagiert – und auf neue Probleme.

Soziale Netzwerke, die von der damaligen Außenministerin und jetzigen Präsidentschaftskandidatin Hillary Clinton als mächtige Werkzeuge zur Verbreitung von Freiheit und Demokratie gepriesen wurden, müssen sich heute dagegen wehren, für Kriegspropaganda missbraucht zu werden. Je schneller sich diese Inhalte verbreiten, umso weiter reicht der Schrecken, und deshalb sind die Internetkonzerne die Bühne der Terroristen geworden, ihr liebster Vertriebsweg.

Dabei fällt auf: Facebook spielt in den Untersuchungen über Propaganda des "Islamischen Staates" nur eine untergeordnete Rolle. Die Terroristen nutzen eher den Kurznachrichtendienst Twitter, um ihre Hassbotschaften zu verbreiten. Um junge Menschen im Westen für den IS anzuwerben, ist WhatsApp beliebter als Facebook. Und wenn ein Video einer Enthauptung auftaucht, wird es stark über YouTube verbreitet.

Deshalb ist es wertvoll, zu wissen, was Facebook gelernt hat. Wie es vorgeht.

Das Erste, das sie im Konzern erkannt haben: Vertraue nicht auf Maschinen und Algorithmen, wenn du anstößige Inhalte suchst. Vertraue den Menschen. Frühe Versuche, eine Software zu entwickeln, die allein erkennt, wenn ein Nutzer gegen die Regeln von Facebook verstößt, sind gescheitert. Vielmehr ruft Facebook alle Nutzer auf, Unangemessenes zu melden, dafür können sie auf Felder klicken, die "Beitrag melden" und "Als Missbrauch melden" heißen. Bei Enthauptungen und ähnlichen Gewalttaten sind die Nutzer inzwischen schnell. Filme und Fotos werden schon nach wenigen Minuten markiert.

Geschieht das, landen die Inhalte bei den "Content-Moderatoren" von Facebook, bei Menschen wie Sophie Tibault. Beim Besuch der ZEIT sprechen sie das erste Mal mit der Presse, allerdings wollen sie ihre Namen in diesem Artikel nicht veröffentlicht sehen, weil sie glauben, sie würden sonst zum Ziel von Leuten, deren Inhalte sie löschen. Nur so viel sei gesagt: Es gab Interviews mit einer Französin, einer Amerikanerin, einem Deutschen und zwei Irinnen.

Content-Moderatoren arbeiten an vier Orten für Facebook: in der Zentrale in Kalifornien, in Büros im texanischen Austin, im indischen Hyderabad – und in Dublin. Die Hauptstadt von Irland ist der wichtigste Ort von allen. Denn von dort aus beobachten die Mitarbeiter an die hundert Länder, auch den arabischen Raum.

Nur warum übernehmen Menschen so einen Job? Warum tun sie sich diese Bilder an? Jakob Schneider sagt, er kümmere sich leidenschaftlich "um Nazi-Seiten", er habe in den neunziger Jahren erlebt, was es bedeutet, wenn rechte Schläger in einer Stadt die Straßen dominieren. "Nazi-Hetze aus Facebook rauszuhalten, das finde ich eine sinnvolle Aufgabe." Patricia MacIntosh will vor allem für "Sicherheit" sorgen. Und Sophie Tibault erzählt, dass sie, wenn sie ihren Ofen reinige, eine ziemliche Befriedigung empfinde, und genauso gehe es ihr bei Facebook.

Nicht von ungefähr haben sie wohl David Hasselhoff zum Türsteher ihrer Abteilung gemacht: Der Serienstar aus Hollywood lehnt gleich neben dem Fahrstuhl, lebensgroß und sehr breitbeinig steht er dort, trägt einen schwarzen Lederanzug und verwehrt den Zugang. Zugegeben, dieser David Hasselhoff ist aus Pappe, aber seine Wirkung verfehlt er nicht. Er ist und bleibt eben der Rettungsschwimmer aus der Fernsehserie Baywatch, ein Typ, dem man besser gehorcht, weil er ein Ordnungshüter ist.