Facebook hat erstmals eine eigene Zahl zu entfernten Beiträgen genannt. Innerhalb des vergangenen Monats seien in Deutschland etwa 100.000 Inhalte mit Hasskommentaren und Beleidigungen gelöscht worden, sagte der europäische Politikdirektor von Facebook, Richard Allan. Das Unternehmen machte allerdings keine Angaben dazu, wie viele Meldungen in dieser Zeit insgesamt beanstandet wurden und wie sich die Zahl der gelöschten Inhalte in den vergangenen Monaten entwickelte.

Eines der größten Probleme bleibe die fehlende Transparenz, sagte daher Bundesjustizminister Heiko Maas. "Wir sollten daher prüfen, ob wir soziale Netzwerke verpflichten, offenzulegen, wie viele Beschwerden wegen illegaler Hasskommentare sie bekommen haben und wie sie damit umgegangen sind," sagte der SPD-Politiker.

Strafbare Inhalte im Internet werden noch immer "viel zu wenig und viel zu langsam" gelöscht, sagte Maas. Das größte Problem liege darin, dass die Beschwerden von Nutzern nicht ernst genommen würden. "Von den strafbaren Inhalten, die User melden, löschte Twitter gerade einmal ein Prozent, YouTube nur zehn und Facebook 46 Prozent. Das ist zu wenig", so Maas. Die Reaktion sei allerdings deutlich schneller, wenn sich Institutionen wie jugendschutz.net direkt an die Netzwerke wendeten.

Im Kampf gegen Hasskommentare im Netz hatte sich eine Task Force mehrerer Internetunternehmen darauf geeinigt, dass gemeldete und strafbare Beiträge innerhalb von 24 Stunden entfernt werden sollten. Laut einer ersten Bilanz der Organisation jugendschutz.net löschte YouTube 96 Prozent und Facebook 84 Prozent der Beiträge, wenn die Organisation selbst diese melde. "Davon wird bei beiden immerhin die Hälfte innerhalb von 24 Stunden gelöscht. Das ist deutlich schneller als noch im Frühjahr", sagte Maas. "Die Lage ist besser geworden, aber sie ist noch lange nicht gut." Die Ergebnisse seien "zwiespältig".