Mark Zuckerberg hat es aufgegeben, ein dringliches Problem bei Facebook mit technischen Mitteln zu lösen. Das sieht ihm gar nicht ähnlich, aber das Problem übersteigt seine technischen Fertigkeiten, ja sogar die von Facebook: Es geht darum, was Menschen einander antun. Wie sie einander auf Facebook schmähen und Gewalt ausüben – wie sie andere sogar ermorden und das live im sozialen Netzwerk verbreiten. Um solche Menschen zurückzudrängen und ihre Beiträge wenigstens schneller zu löschen, stellt das lange Zeit coolste Unternehmen aus Kalifornien nun 3.000 Leute ein, die man getrost als Sozialarbeiter bezeichnen kann.

Es ist ein historischer Moment für Facebook, aber auch für das Silicon Valley. Denn da stößt gerade eine der größten Vereinigungen von IT-Genies an ihre Grenzen.

Tritt ein Problem auf, werden dort immer zuerst die Programmierer gerufen. Sie sollen an der Software schrauben, den Algorithmus verändern, ein neues Feature entwickeln. Christoph Bornschein fasst das so zusammen: "Die Silicon-Valley-Ideologie ist: Baue eine Plattform auf und betreibe sie mit möglichst wenig Menschen. Versuche, großem Wachstum mit technischen Lösungen zu begegnen." Bornschein ist Gründer der Unternehmensberatung TLGG. Viele Konzerne hören ihm zu, wenn es um strategische Fragen der Digitalisierung geht, und im vergangenen Jahr wurde er zur Klausur der Bundesregierung in Meseberg dazugebeten. Bornschein sagt, technology first! sei eine geradezu philosophische Losung für die amerikanischen Internetunternehmen. Software soll Nutzer in die gewünschte Richtung stupsen, lenken und treiben. Sie soll ein bestimmtes Sozialverhalten fördern.

So war es auch im Fall anstößiger Bilder und Nachrichten: Versuche von Facebook, sie automatisch zu erkennen und zu tilgen, reichen bis in das Jahr 2010 zurück. Die Ergebnisse überzeugten nie. Die Programmierer sind daran gescheitert.

Zugleich wuchs die Popularität des Netzwerks. 1,3 Milliarden Menschen nutzen es täglich, jeder fünfte Mensch auf der Erde. So viel Kommunikation mit automatischen Verfahren zu sichten und vom Schlimmsten zu säubern, und das in allen erdenklichen Kulturräumen, dafür müsste eine Software, eine künstliche Intelligenz, wohl das Böse erkennen können. Aber das kann bis heute keine Software auch nur annähernd leisten. Das kann nur der Mensch, und selbst ihm fällt es oft schwer.

Bei Facebook wollten sie das lange nicht wahrhaben, allen voran Zuckerberg. Über die Jahre konnte man deshalb beobachten, wie die Trennung von einer fixen Idee klassischerweise vier Phasen durchläuft: erst das Leugnen, dann die Trauer über das Schlechte in der Welt, anschließend Wut über die viele Kritik und schließlich das Eingeständnis der Fehlannahme.

Damit begann vor zwei Jahren die Umkehr. Zuvor war das sogenannte Community-Management eine überschaubare Abteilung, von vielen Verantwortlichen in Kalifornien als menschliche Zwischenlösung betrachtet, das Fernziel eine Zukunft automatisierter Schmähkontrolle. Es gab ein paar Hundertschaften an vier Standorten in den USA, in Indien und Irland.