Googles Videoplattform YouTube will nach Kritik und politischem Druck gegen Gewalt und Extremismus vorgehen. Unter anderem werde die Zahl der Menschen, die Inhalte prüfen, im kommenden Jahr auf 10.000 erhöht, kündigte YouTube-Chefin Susan Wojcicki an.

Das Portal sei missbraucht worden, um "in die Irre zu führen, zu manipulieren, zu belästigen oder sogar um Leid zuzufügen", sagte Wojcicki. Inzwischen habe ihr Unternehmen eine Technologie entwickelt, um Videos mit extremistischen Inhalten zu erkennen oder auch Inhalte, welche die Sicherheit von Kindern gefährdeten.

Das maschinelle Lernen helfe menschlichen Prüfern, fast fünf Mal mehr Videos zu entfernen. Seit Juni seien 150.000 Videos wegen gewalttätigem Extremismus gelöscht worden. Inzwischen würden 98 Prozent davon von den selbstlernenden Maschinen aufgespürt.

Maschinen ersetzen 180.000 Mitarbeiter

Das ermögliche es YouTube, solche Inhalte schneller zu löschen. Fast 70 Prozent davon seien binnen acht Stunden nach dem Hochladen entfernt worden und fast die Hälfte in zwei Stunden. Die Algorithmen hätten seit Juni ein Volumen an Videos abgearbeitet, für das es 180.000 Personen bei einer 40-Stunden-Woche gebraucht hätte.

YouTube wurde von Werbekunden unter Druck gesetzt, nachdem deren Anzeigen im Umfeld extremistischer Videos und pädophiler Kommentare zu Videos mit Kindern gelandet waren. Wojcicki kündigte "einen neuen Ansatz für Werbung auf YouTube" an, damit "Anzeigen nur dort laufen, wo sie auch laufen sollen". Dazu solle es unter anderem mehr menschliche Kontrolle neben den Algorithmen geben und eine sorgfältigere Prüfung, welche Kanäle und Videos für Werbung infrage kommen.

In Deutschland greifen zudem ab Januar die Vorschriften des sogenannten Netzwerkdurchsetzungsgesetzes, das ein schnelles Löschen verbotener Inhalte wie Hass und Gewalt vorsieht.

IS-Inhalte werden schnell gefunden

Auch Facebook nutzt maschinelles Lernen und automatische Erkennungssysteme, um terroristische Inhalte zu finden. 99 Prozent von Fotos, Videos und Texten, die einen Bezug zum IS und zu Al-Kaida enthalten, werden beispielsweise noch vor der Veröffentlichung entdeckt, heißt es von dem Unternehmen. Schwieriger ist es bei anderen Terrorgruppen. Die vielen Sprachen, in denen Inhalte verbreitet werden, erschweren das Auffinden. Dass automatische Systeme auch gegen regional aktive Terrorgruppen eingesetzt werden könnten, scheint derzeit unwahrscheinlich.

Mehr als 50 Unternehmen tauschen im Global Internet Forum to Counter Terrorism (GIFCT) zudem sogenannte Hashes von Terrorinhalten aus, so etwas wie digitale Fingerabdrücke. Diese Technik nutzt etwa Facebook, um Rachepornos zu finden. Auch externe Organisationen wie Flashpoint, das Middle East Media Research Institute (MEMRI), die SITE Intelligence Group und die University of Alabama suchen und melden Terrorinhalte auf Facebook.