Manchmal geraten Menschen zufällig an die Front. So wie Sophie Tibault. Die Französin hat vor ein paar Jahren ein Internetforum gepflegt, in dem sich Schwangere und junge Mütter austauschen. Sophie verfolgte ihre Diskussionen über Muttermilch und postnatale Depressionen und schlichtete, wenn nötig, einen Streit.

Dann bekam Sophie Tibault (Name von der Redaktion geändert) einen Job in der Europazentrale von Facebook in Dublin. Wieder arbeitete sie als Betreuerin der Community, und sie dachte, jetzt öffne sich die weite Welt für sie. Und genau das geschah.

Inzwischen kann Tibault eine Reihe von Terroristen und Mördern an der Art unterscheiden, mit der sie ihre Opfer enthaupten. "Sie haben verschiedene Stile", sagt sie. "Auch Dschihadist John hat einen." Der Brite hat besonders viele Geiseln des "Islamischen Staates" gefoltert und vor laufender Kamera enthauptet. "Es ist nicht so leicht, einen Kopf abzutrennen. Das dauert", sagt Sophie, und in dieser kurzen Äußerung wird ansatzweise deutlich, wie schwer die Videos auszuhalten sind, aber auch, wie Sophie damit umgeht. Sie reduziert, was sie sieht, auf den faktischen Kern und erfüllt ihre Aufgabe: Wird ihr ein solches Video von einem Nutzer gemeldet, schaut sie es sich ein Mal an. Dann löscht sie es.

Tibault zuckt nicht mit der Wimper, als sie ergänzt: "Und wenn im IS die Sonne untergeht, stehen die mexikanischen Gangs auf."

Facebook hat 1,4 Milliarden Mitglieder und ist dadurch ein Schauplatz für die Konflikte dieser Welt geworden. Alle Grausamkeiten und Scheußlichkeiten, die Menschen einander antun, finden ihren Weg in das Soziale Netzwerk. Sie werden hochgeladen, weitergeleitet, kopiert, es wird auf sie verlinkt, und sie werden geliked.

Aber Facebook war von Anfang an auch ein Versprechen. Es sollte familientauglich sein, zivilisiert. Die schlichte Frage lautet nun: Kann das bei so vielen Menschen überhaupt gelingen?

Kein anderer Digitalkonzern hat so früh begonnen, eine Antwort darauf zu suchen, und es ist bekannt, dass Facebook dabei eine Reihe von Fehlern gemacht hat. Mal schien das Unternehmen amerikanisch-prüde Moralvorstellungen durchsetzen zu wollen – selbst Bilder von antiken Statuen wurden da gelöscht, weil ein steinerner Penis zu sehen war. Später schien man allzu servil gegenüber Werbekunden. Aber das hat sich etwas abgeschliffen, der Konzern hat seine Regeln mehrfach verändert, auf seine Nutzer reagiert – und auf neue Probleme.

Soziale Netzwerke, die von der damaligen Außenministerin und jetzigen Präsidentschaftskandidatin Hillary Clinton als mächtige Werkzeuge zur Verbreitung von Freiheit und Demokratie gepriesen wurden, müssen sich heute dagegen wehren, für Kriegspropaganda missbraucht zu werden. Je schneller sich diese Inhalte verbreiten, umso weiter reicht der Schrecken, und deshalb sind die Internetkonzerne die Bühne der Terroristen geworden, ihr liebster Vertriebsweg.

Dabei fällt auf: Facebook spielt in den Untersuchungen über Propaganda des "Islamischen Staates" nur eine untergeordnete Rolle. Die Terroristen nutzen eher den Kurznachrichtendienst Twitter, um ihre Hassbotschaften zu verbreiten. Um junge Menschen im Westen für den IS anzuwerben, ist WhatsApp beliebter als Facebook. Und wenn ein Video einer Enthauptung auftaucht, wird es stark über YouTube verbreitet.

Deshalb ist es wertvoll, zu wissen, was Facebook gelernt hat. Wie es vorgeht.

Das Erste, das sie im Konzern erkannt haben: Vertraue nicht auf Maschinen und Algorithmen, wenn du anstößige Inhalte suchst. Vertraue den Menschen. Frühe Versuche, eine Software zu entwickeln, die allein erkennt, wenn ein Nutzer gegen die Regeln von Facebook verstößt, sind gescheitert. Vielmehr ruft Facebook alle Nutzer auf, Unangemessenes zu melden, dafür können sie auf Felder klicken, die "Beitrag melden" und "Als Missbrauch melden" heißen. Bei Enthauptungen und ähnlichen Gewalttaten sind die Nutzer inzwischen schnell. Filme und Fotos werden schon nach wenigen Minuten markiert.

Geschieht das, landen die Inhalte bei den "Content-Moderatoren" von Facebook, bei Menschen wie Sophie Tibault. Beim Besuch der ZEIT sprechen sie das erste Mal mit der Presse, allerdings wollen sie ihre Namen in diesem Artikel nicht veröffentlicht sehen, weil sie glauben, sie würden sonst zum Ziel von Leuten, deren Inhalte sie löschen. Nur so viel sei gesagt: Es gab Interviews mit einer Französin, einer Amerikanerin, einem Deutschen und zwei Irinnen.

Content-Moderatoren arbeiten an vier Orten für Facebook: in der Zentrale in Kalifornien, in Büros im texanischen Austin, im indischen Hyderabad – und in Dublin. Die Hauptstadt von Irland ist der wichtigste Ort von allen. Denn von dort aus beobachten die Mitarbeiter an die hundert Länder, auch den arabischen Raum.

Nur warum übernehmen Menschen so einen Job? Warum tun sie sich diese Bilder an? Jakob Schneider sagt, er kümmere sich leidenschaftlich "um Nazi-Seiten", er habe in den neunziger Jahren erlebt, was es bedeutet, wenn rechte Schläger in einer Stadt die Straßen dominieren. "Nazi-Hetze aus Facebook rauszuhalten, das finde ich eine sinnvolle Aufgabe." Patricia MacIntosh will vor allem für "Sicherheit" sorgen. Und Sophie Tibault erzählt, dass sie, wenn sie ihren Ofen reinige, eine ziemliche Befriedigung empfinde, und genauso gehe es ihr bei Facebook.

Nicht von ungefähr haben sie wohl David Hasselhoff zum Türsteher ihrer Abteilung gemacht: Der Serienstar aus Hollywood lehnt gleich neben dem Fahrstuhl, lebensgroß und sehr breitbeinig steht er dort, trägt einen schwarzen Lederanzug und verwehrt den Zugang. Zugegeben, dieser David Hasselhoff ist aus Pappe, aber seine Wirkung verfehlt er nicht. Er ist und bleibt eben der Rettungsschwimmer aus der Fernsehserie Baywatch, ein Typ, dem man besser gehorcht, weil er ein Ordnungshüter ist.

Eben darin steckt auch die zweite Antwort auf die Frage, wie sie bei Facebook versuchen, 1,4 Milliarden Menschen einigermaßen im Zaum zu halten: Setze Regeln.

Monika Bickert ist die oberste Ordnungshüterin der Firma, sie nennt sich Head of Global Policy Management und sagt: "Unser globaler Service stützt sich auf Prinzipien. Wir wollen dafür sorgen, dass unsere Nutzer sicher sind, sich sicher fühlen, und zugleich wollen wir die Nutzer darin bestärken, Dinge miteinander zu teilen und sich maximal frei ausdrücken zu können."

Das Wort "Sicherheit" ist hier umfassend und ungenau zugleich. Aber das ist willkommen, erlaubte es Facebook doch anfangs, ohne große Erklärungen zu löschen.

Ähnlich ging Facebook mit der Frage um, welche Gesetze eingehalten werden sollen. Theoretisch muss das Unternehmen ja nationale Gesetze in all den Ländern befolgen, in denen es eine Niederlassung hat. Aber wie sollte eine junge Firma, wie es Facebook vor ein paar Jahren noch war, so etwas leisten? Man könnte sagen, sie wählte deshalb eine Opt-in-Strategie. Erst einmal galt amerikanisches Recht. Aber formulierte die Regierung eines Landes einen dringenden Wunsch, wurde ihm entsprochen, wenn er nachvollziehbar war – oder der politische Druck zu groß.

Monika Bickert spricht noch heute davon, der Konzern folge den "maßgeblichen Gesetzen", womit sie zum Beispiel umschreibt, dass sich Facebook in der Türkei daran hält, dass eine Schmähung des Staatsgründers Atatürk verboten ist. In Deutschland wiederum darf der Holocaust nicht geleugnet werden. Wenn ein Nutzer gegen diese maßgeblichen Gesetze verstößt, arbeitet der Konzern mit der Polizei zusammen und dokumentiert das in einem Transparenzbericht. Für Deutschland hieß das im zweiten Halbjahr 2014: Es gab rund 2.100 Anfragen von Strafverfolgern, die auf Nutzerkonten zugreifen wollten. Einem Drittel wurde teilweise oder ganz entsprochen.

Eine weitere Dimension von "Sicherheit" soll das Miteinander zivilisieren. Dafür erließ Facebook seine Community Standards. Ihnen zufolge müssen Nutzer ihren echten Namen und ein Foto von sich zeigen. Auch andere zu belästigen, zu mobben oder zu bedrohen ist verboten, und Facebook sichtet von Nutzern gemeldete Beleidigungen, Fotos mit Waffen und vieles mehr. Im Kern bestimmt diese Haltung auch den US-amerikanisch geprägten Umgang mit Terror. Bickert sagt: "Terroristen dürfen unsere Plattform nicht benutzen, selbst wenn sie nur Familienfotos teilen wollen. Wir erlauben auch keine Unterstützung von Terroristen. Wer das tut, dessen Posts werden gelöscht, wir verbieten ihm eine Weile, etwas zu veröffentlichen, oder löschen sein Profil ganz."

Aber jenseits des Terrors entwickelt sich der Umgang mit Bildern weiter. Die Betreuer der Community erkannten, dass es verschiedene Gründe gibt, Bilder von Gewalt und Tod zu zeigen. Gerade während des Arabischen Frühlings nutzten Demonstranten die Plattform, um gegen Gewalt zu mobilisieren. Formal verstieß das gegen die Facebook-Benimmregeln und musste eigentlich gelöscht werden.

Wäre Facebook irgendein Internetdienst, wäre es egal, wie sie darauf reagieren. Aber wie der Washingtoner Verfassungsrechtler Jeffrey Rosen sagt: "Facebook hat mehr Einfluss darauf, wie es um das Recht auf freie Rede und Meinungsäußerung auf der Welt steht, als irgendein Diktator. Und sogar mehr als der US-Präsident."

Eine Community-Betreuerin in Dublin berichtet von den Fragen, die sie Tag für Tag beschäftigen: "Wenn wir zeigen, was auf Straßen in der arabischen Welt los ist, wenn wir die barbarische Gewalt zeigen, verschlechtern wir die Aussichten auf eine bessere Zukunft? Oder verbessern wir sie?" Und: "Sind diejenigen, die bei der Demonstration dabei waren, sicherer, wenn man die Bilder zeigt? Oder wenn man sie löscht?"

Facebook hat sich dann entschieden, Partei zu ergreifen und diejenigen zu stärken, die sich gegen Gewalt und Unrecht engagieren. Nutzer mit diesem Ziel dürfen heute anstößige Bilder und Videos veröffentlichen. Aber um wiederum diejenigen zu schützen, die solche Bilder nicht sehen wollen oder nicht aushalten, zeigt Facebook nun oft eine Warnung zu Beginn von Videos – oder vergibt eine Altersbeschränkung.

Es ist ein Balanceakt zwischen Löschen auf der einen und freier Meinungsäußerung auf der anderen Seite, zwischen dem Schutz der Nutzer und ihrem Wunsch, viele Dinge zu teilen. Und bei Facebook ist ein fortwährender Prozess entstanden, der auf Prinzipien beruht, aber aus Einzelfallentscheidungen besteht.

Die anderen großen Digitalkonzerne müssen sich fragen lassen, wie sie es auf ihren Plattformen halten – und warum sie so viel mehr Anziehungskraft auf Terroristen ausüben.