Facebook hat seine Definition von Inhalten, die unter Hassrede fallen, erweitert. Ab der kommenden Woche will das soziale Netzwerk auch gegen Äußerungen vorgehen, die den sogenannten "weißen Nationalismus" oder "weißen Separatismus" verherrlichen oder unterstützen, heißt es in einer Mitteilung des Konzerns. "Es ist klar, dass diese Konzepte eng mit organisierten Hassgruppen verbunden sind und in unseren Diensten keinen Platz haben", wird die Entscheidung darin begründet.

Inhalte, die unter die Ideologie der "weißen Vorherrschaft" ("white supremacy") fallen, sind auf Facebook bereits verboten. In seinem Blogeintrag verweist der Konzern darauf, dass bislang jedoch ein "breit gefasstes" Konzept von nationalistischen Ideen verfolgt worden sei. So seien Aussagen über "amerikanischen Stolz" oder "baskischen Separatismus" ein "wichtiger Bestandteil der Identität" von Menschen.  

Nachdem sich das Unternehmen jedoch mit Experten ausgetauscht habe, sei offenkundig geworden, dass weißer Nationalismus und weißer Separatismus "nicht eindeutig" von rassistischen Ideen abgegrenzt werden können. Dies wird von Facebook nicht weiter konkretisiert. Sowohl die politische Idee des Weißen Nationalismus als auch das Konzept des Weißen Separatismus gehen davon aus, das es eine weiße "Rasse" gibt, die besonders geschützt und erhalten werden müsse.

Facebook kündigte außerdem an, Nutzerinnen und Nutzer, die Suchbegriffe eingeben, die mit "weißer Vorherrschaft" einhergingen, auf das Angebot der Life-after-Hate-Plattform weiterzuleiten. Die Organisation ist von ehemaligen Extremisten gegründet worden und soll Menschen mit radikalen Ansichten unter anderem mit Bildungsangeboten, Selbsthilfegruppen und Konzepten zur Krisenbewältigung erreichen. Außerdem wolle man künftig besser und schneller gegen Hassbotschaften im Netz vorgehen, hieß es. Hier gebe es immer noch Nachholbedarf.  

Kritik nach Terror von Christchurch

Zuletzt stand Facebook im Zusammenhang mit dem Terroranschlag von Christchurch in der Kritik. Der mutmaßliche rechtsextreme Täter hatte den Angriff auf zwei Moscheen live mit einer Helmkamera gefilmt und auf Facebook übertragen. Laut dem Unternehmen waren innerhalb von 24 Stunden insgesamt 1,5 Millionen Videos der Tat gelöscht oder während des Hochladens blockiert worden. Trotzdem waren weiterhin Mitschnitte des Videos millionenfach im Netz weiterverbreitet worden. Der Konzern hatte mitgeteilt, dass das Video während des Livestreams weniger als 200 Mal und insgesamt rund 4.000 Mal angesehen worden war, bevor es entfernt wurde. Allerdings habe ein Nutzer der Plattform 8chan eine Kopie auf einer Filesharingplattform hochgeladen, noch bevor Facebook auf das Video aufmerksam gemacht worden sei.

Die neuseeländische Premierministerin Jacina Arden hatte daraufhin unter anderem Facebook und Google kritisiert und sie aufgefordert, die Verbreitung von Anschlags- und Terrovideos zu verhindern. Mehrere neuseeländische Firmen hatten ihre Werbeanzeigen zurückgezogen.

Facebook beschäftigt laut eigenen Angaben 10.000 Menschen, um gegen Hasskommentare vorzugehen. Im Januar vergangenen Jahres hatte der Konzern angekündigt, die Zahl dieser Mitarbeiterinnen und Mitarbeiter bis zum Jahresende zu verdoppeln.