So gibt es auf allen Plattformen bereits Verfahren, über die Nutzer auffällige Inhalte melden können. Es gibt Community-Guidelines, in denen auf verbotene Inhalte hingewiesen wird, auf Twitter etwa auch explizit auf terroristische Propaganda. Facebook und Google setzen sich schon jetzt für einen aktiven Gegendiskurs auf ihren Plattformen ein und sponsern europaweite Initiativen. Mit Strafverfolgungsbehörden arbeiten sie ebenfalls bereits zusammen, wie einige Verurteilungen in den vergangenen Monaten gezeigt haben.

Auch die Selbstverpflichtung, illegale Inhalte binnen 24 Stunden zu prüfen und nationale Gesetze zu befolgen, gibt es bereits, wenn auch nicht europaweit. Im Dezember hatte Justizminister Heiko Maas (SPD) eine Arbeitsgruppe mit Facebook, Twitter und Google ins Leben gerufen, damit Inhalte schneller gelöscht werden, nämlich im besten Fall innerhalb von 24 Stunden. Facebook hat seit Anfang des Jahres eine eigene Task Force in Deutschland, die aber nach Einschätzung des Justizministeriums noch immer viel zu langsam arbeitet. Trotzdem könnte das deutsche Modell demnächst auch europaweit angewandt werden.

Ob sich mit dem Verhaltenskodex aber wirklich viel ändert, ist zweifelhaft. Zumal selbst die Formulierungen in dem Dokument aus Brüssel reichlich Spielraum für Interpretationen lassen, was einige deutsche Politiker bereits kritisieren. Beispielsweise müsse bloß "die Mehrheit der gültigen Meldungen" innerhalb von 24 Stunden zu prüfen sein – ob das nun nur für Meldungen von NGOs gilt oder für sämtliche Nutzermeldungen, ist unklar. Die Unternehmen müssen sich des Weiteren "um Partnerschaften aus der Zivilgesellschaft" bemühen und die "Zusammenarbeit untereinander verbessern". Wie das genau aussieht und wie das überprüft werden soll, bleibt unerwähnt. Vieles ist abstrakt, wenig konkret.

Eine politische Geste

Den IT-Unternehmen kann das nur Recht sein. Denn auch wenn sie zweifelsfrei daran interessiert sind, Hasskommentare auf ihren Plattformen zu minimieren, wollen sie sich zum einen auch nicht zu sehr einmischen; die Linie zwischen Zensur und freier Meinungsäußerung ist nicht zuletzt auch durch verschiedene nationale Gesetzeslagen dünn. Zum anderen laufen sie Gefahr, polizeiliche oder hoheitliche Aufgaben zu übernehmen, indem sie in letzter Instanz entscheiden, wann welcher Kommentar tatsächlich gegen geltendes Recht verstößt. Diesen Aspekt kritisieren deshalb Bürgerrechtler und Netzaktivisten an dem neuen Verhaltenskodex: Statt den Behörden übernehmen die Plattformen die führende Rolle, heißt es. Das könne dazu führen dass kontroverse, aber möglicherweise legale Inhalte ebenfalls gelöscht werden.

In den kommenden Monaten wollen die EU-Kommission und die Unternehmen weiter an gemeinsamen Lösungen arbeiten. Die jetzige Selbstverpflichtung ist in erster Linie eine politische Geste: Microsoft, Facebook, YouTube und Twitter zeigen der EU-Kommission damit, dass sie das Problem mit der Hetze im Internet erkannt haben, sich geschlossen für Lösungen einsetzen und den Verantwortlichen in Brüssel entgegenkommen. In einer Zeit, in der die EU-Kommission gerne die Peitsche schwingt, kann ein bisschen Zuckerbrot schließlich nicht schaden.

Korrektur: In einer früheren Fassung des Artikel hieß es, Facebook hat mit der NGO Access Now zusammengearbeitet. Tatsächlich war Access Now zunächst an den Gesprächen zwischen den IT-Unternehmen und der EU-Kommission beteiligt, hat diese aber mittlerweile verlassen und kritisiert den vorgestellten Verhaltenskodex scharf.