Als ein Australier im neuseeländischen Christchurch im März 51 Menschen ermordete, konnten ihm Millionen Menschen dabei zusehen. Denn der Attentäter streamte seine Tat live auf Facebook. Erst 29 Minuten nach dem Start meldete jemand das Video – zu spät: Die Bilder des Anschlages verbreiteten sich im Netz, tun es bis heute.

Deshalb ist es verständlich, dass sich nun viele eine strengere Regulierung von Livestreams wünschen, ein stärkeres Eingreifen sozialer Netzwerke, eine bessere Überwachung des dort gesendeten Materials. Allen voran die neuseeländische Premierministerin Jacinda Ardern, die den sogenannten Christchurch-Appell initiiert hat: Gemeinsam mit anderen Staaten und mit den Technologieplattformen will sie Liveübertragungen von extremistischen Taten in Zukunft verhindern. Der Aufruf wird von Ländern wie Neuseeland, Frankreich und auch Deutschland unterstützt. Von Seiten der Tech-Unternehmen machen unter anderem Amazon, Facebook, Google, Twitter und Microsoft mit.

In dem Appell verpflichten sich Staaten und Plattformen, gemeinsam Terrorismus zu bekämpfen, und haben sich dafür jeweils spezifische Ziele gesetzt: Die Regierungen wollen etwa Gesetze durchsetzen, die auch die Herstellung extremistischer Inhalte unter Strafe stellen, und mit Medienbildung Terrorismus vorbeugen. Die Plattformen wiederum wollen grundsätzlich verhindern, dass Menschen terroristische Streams hochladen, unter anderem mit besserer Technologie. Zusätzlich wollen sie in ihren Nutzungsbedingungen deutlicher machen, welche Konsequenzen drohen, sollte jemand trotzdem extremistisches Material teilen, und diese auch durchsetzen. Auch wollen sie ihre Algorithmen und andere Prozesse daraufhin prüfen, was sie empfehlen und wie sie Menschen möglicherweise in terroristische Gruppen hineinziehen.

Facebook hatte in vorauseilendem Gehorsam bereits angekündigt, schneller reagieren zu wollen. So sollen Nutzerinnen und Nutzer keine Livestreams mehr erstellen dürfen, wenn sie vorher gegen die Regeln des Netzwerks verstoßen haben. Das Unternehmen will zudem 7,5 Millionen Dollar in Forschung stecken, die manipulierte Videos besser erkennen soll. Nach den Geschehnissen in Christchurch hatte Facebook teils Probleme, neu hochgeladene Kopien des Attentätervideos zu identifizieren.

Die Initiative ist also eigentlich zu begrüßen. Denn natürlich sollten Unternehmen, sollten Länder, sollten wir als Gesellschaft darüber nachdenken, wie verhindert werden kann, dass sich extremistische Inhalte immer weiter verbreiten. Und auch darüber, in welchem Maß soziale Netzwerke zu der Verbreitung beitragen, sei es auch nur unabsichtlich. 

Ein bisschen Hingucken reicht nicht

Aber der sehr vage formulierte Christchurch-Appell und die Facebook-Ankündigung, die sehr viele Einschränkungen enthält, deuten es schon an: Mit ein bisschen mehr Hingucken ist es eben nicht getan. Was genau soll das denn sein, ein extremistischer oder terroristischer Inhalt? Reicht es schon, eine Waffe ins Bild zu halten? Oder ist die Pose entscheidend? Wie soll differenziert werden zwischen Fiktion und realer Bedrohung? Vor allem: Wer entscheidet darüber und wer kontrolliert diese Entscheidung? Der von Ardern initiierte Appell scheint diese Aufgabe wieder einmal den großen Plattformen zu überlassen: Sie müssen ermessen, welchen Inhalt oder welche Person sie wann wie blocken oder gar löschen.

Und das, obwohl die in anderen Bereichen bereits unter Beweis gestellt haben, wie schlecht sie darin sind. Twitter sperrte in den vergangenen Tagen Konten von Medien, Politikern und Juristen wegen angeblicher "Irreführung" in Bezug auf die Europawahl. Grundlage dafür sind gerade erlassene Regeln, mit denen das Unternehmen die missbräuchliche Beeinflussung der Wahl verhindern will. Unter den Gesperrten waren die Jüdische Allgemeine sowie laut Berichten der Berliner SPD-Abgeordnete Sven Kohlmeier und mehrere Anwälte. Auf Nachfrage sprach Twitter davon, dass "manchmal Fehler" passieren. Auf YouTube tauchten die Inhalte von Impfgegnerinnen lange prominent in Suchergebnissen auf. Und auf Facebook verbreiteten sich Livestreams von Morden und Vergewaltigungen. Warum die Plattformen besser darin sein sollen, terroristische Inhalte frühzeitig zu erkennen und zu verbannen, erschließt sich nicht.

Zwar betonen die Unterstützerinnen und Unterstützer des Christchurch-Appells, dass sie für freie Rede und für ein freies Internet einstehen. Trotzdem besteht die Gefahr eines Overblockings, dass also viel mehr Inhalte blockiert werden, als in der engen Definition von Extremismus und Terrorismus aus den sozialen Netzwerken entfernt werden müssten. Nun mag man es nicht dramatisch finden, wenn Twitter oder Facebook pauschal Veröffentlichungen von Videos verhindern, in denen jemand mit einer Waffe posiert. Allerdings hat der Attentäter von Christchurch seinen Livestream aus dem Auto heraus begonnen, erst später waren Morde während der Übertragung zu sehen. Müssen die Firmen also Menschen einstellen, die sich jeden Livestream von vorne bis hinten ansehen? Bisher reagieren die Mitarbeiter erst auf Hinweise von anderen Nutzerinnen.