Eines muss man Verschwörungstheoretikern lassen: Sie arbeiten schnell. Nur wenige Tage nach dem Amoklauf an einer Schule in Florida vergangene Woche tauchten im Internet die ersten Beiträge auf, die das Geschehen anzweifelten. Eine Woche später trendete auf YouTube ein Video über den 17-jährigen Überlebenden David Hogg. Es zeigte Szenen aus einem früheren Interview, das er einem TV-Sender gab, und ließ vermuten, er sei in Wirklichkeit ein Krisenschauspieler – von der linken Anti-Waffen-Lobby angeheuert, um Stimmung gegen Waffen zu machen. Auch auf Facebook stand Hoggs Name zwischenzeitlich in den trending topics.

Das Vorgehen ist bekannt und es wiederholt sich. Nach dem Attentat in Las Vegas vergangenen Herbst tauchten Videos auf, die den Attentäter mit dem Islamischen Staat als auch der Antifa in Verbindung brachten. Nach dem Massaker im texanischen Sutherland Springs behaupteten Videos und Beiträge, der Angreifer sei Muslim. In allen Fällen konnten die falschen Inhalte teils millionenfach angesehen und geteilt werden, bevor die Plattformen sie wieder entfernten.

Wie kann das noch immer sein, in Zeiten, in denen soziale Netzwerke ohnehin mit Vorwürfen der Meinungsmanipulation konfrontiert sind? Wieso, fragt der Buzzfeed-Journalist Charlie Warzel, kann jede halbwegs informierte Bürgerin und jeder Bürger falsche Nachrichten und Verschwörungstheorien erkennen, aber die milliardenschweren Technikfirmen schaffen das nicht? Im Gegenteil, sie sorgen sogar noch dafür, dass diese Inhalte überhaupt erst in den öffentlichen Diskurs gelangen.

Das System YouTube lässt sich austricksen

Die Antwort auf die Frage ist vor allem eine technische, sagen die Plattformbetreibenden. In einer Stellungnahme erklärt YouTube, das Video über David Hogg sei "falsch kategorisiert" worden. Weil es Aufnahmen einer glaubwürdigen Nachrichtenquelle enthielt, habe die automatische Erkennung versagt. Die Algorithmen der Plattform analysieren Videos unter anderem auf ihren Inhalt (darunter auch urheberrechtlich geschütztes Material), auf Beschreibung und Clickbait-Titel hin. Wenn es um aktuelle Ereignisse geht, sollten vor allem Videos aus glaubwürdigen Quellen in den Topergebnissen erscheinen. Inzwischen verweisen die ersten Suchergebnisse für David Hogg auch auf Videos, die mit der Verschwörungstheorie aufräumen.

Das nachträgliche Reparieren ändert jedoch nichts an dem ursprünglichen Problem: Das System von YouTube lässt sich vergleichsweise simpel austricksen – wenn man weiß, wie sich Algorithmen täuschen lassen.

Zuletzt gab es dazu mehrere Untersuchungen. So wurde bekannt, wie einzelne Betreibende von YouTube-Kanälen beliebte Kindersendungen ausnutzten, um ihre eigenen Videos möglichst so zu platzieren, dass sie Nutzerinnen und Nutzern als Nächstes vorgeschlagen wurden (Lesen Sie mehr dazu hier). Das gleiche Prinzip wurde nach einer Untersuchung der britischen Zeitung Guardian auch im US-Wahlkampf 2016 ausgenutzt. Gemeinsam mit einem früheren YouTube-Mitarbeiter fanden eine Reporterin und ein Reporter heraus, dass den Usern in der Zeit vor der Wahl sechsmal so viele Clips vorgeschlagen wurden, die entweder Pro-Trump oder Anti-Clinton waren. YouTube wies die Erkenntnisse zurück; die Vorgehensweise der beiden Journalisten sei nicht korrekt gewesen, um daraus Schlüsse ziehen zu können.

Einfluss von außen

Sicher ist: Archivaufnahmen in ein Video zu schneiden und so den Anschein erwecken, es handle sich um eine glaubwürdige Quelle, ist bloß eine Möglichkeit, um Algorithmen für die eigenen Zwecke auszunutzen. Gezielt aktuelle Suchbegriffe und Hashtags in der Beschreibung zu verwenden, etwa den Namen von Opfern oder Überlebenden nach einem Anschlag, ist eine andere. Hier greifen bei YouTube die gleichen Mechanismen wie bei jeder anderen Search Engine Optimization (SEO): Je besser man einen Inhalt optimiert, desto höher die Chance auf mehr Abrufe. Eine Rolle spielt auch die Kanal-Autorität: Ein bekannter Kanal mit zahlreichen Abrufen trendet leichter als ein neuer Kanal. Theoretisch.

Im Fall von David Hogg aber waren es weniger die internen YouTube-Mechanismen, die das Video bis ganz nach oben brachten, als vielmehr der externe Einfluss. Die New York Times hat mit dem Urheber des Clips gechattet, der sich als 51-jähriger Mann aus Idaho ausgibt (was man glauben kann oder nicht). Sein Kanal hatte bis dato nur wenige Uploads und weniger als 1.000 Abonnenten. Das Video selbst hatte keine besonders knackige Überschrift oder These. Aber es war nun mal da und es war eines der ersten, die sich der Krisenschauspielertheorie um David Hogg annahmen.

Wie die New York Times schreibt, wurde das Video schnell in Kreisen geteilt. Etwa auf der Plattform 4chan, die zwar nicht ausschließlich, aber eben auch die Heimat von Internettrollen wie von Verschwörungstheoretikern und rechten Unterstützern ist. Ebenso wurde es auf Twitter, Facebook und auf einschlägigen Seiten verteilt und verlinkt. Da die Algorithmen YouTubes neben der Autorität des Kanals auch die freshness und die Erwähnungen eines Video bewerten, erweckte das Video offenbar den Anschein, gerade viral zu gehen. Das hat es wiederum in den Suchergebnissen nach oben gebracht. Und weil sich das System selbst verstärkt, landete es schließlich in den Toptrends. Die gleichen Mechanismen lassen sich auch für die Videos nach den Anschlägen in Las Vegas und Southerland Springs erkennen. Und das nicht nur auf YouTube, sondern auch in den trending topics von Facebook oder Twitter.