Live auf YouTube haben Hunderttausende verfolgt, wie Flammen am Montagabend stundenlang den historischen Dachstuhl von Notre-Dame in Schutt und Asche verwandelten. Etliche Fernsehsender nutzten ihre YouTube-Kanäle, um den Brand zu dokumentieren. Was für Zuschauerinnen und Zuschauer klar als aktuelle Nachrichtenlage erkennbar war, überforderte jedoch den Algorithmus der Videoplattform.

Wie sich der Brand in Notre-Dame entwickelte

© ZEIT ONLINE

Mehr noch: Automatisch wurden in den USA die Liveberichte als potenzielle Desinformationskampagne eingestuft. Und um Nutzerinnen und Nutzer eben vor vermeintlich falschen Nachrichten zu warnen, wurde ihnen unter den Videos ein Banner eingespielt, das sie über den Terroranschlag am 11. September 2001 aufklärte und auf einen Lexikoneintrag der Encyclopaedia Britannica verwies. Die brennenden Zwillingstürme des World Trade Centers in New York am 11. September 2001 verschmolzen für den Algorithmus mit den Flammen in und hinter den Türmen der historischen Kathedrale in Paris am 15. April 2019. 

Auf Twitter wiesen viele Menschen direkt auf die Einblendung hin. Der Buzzfeed-Journalist Ryan Broderick kommentierte ironisch: "Ich bin so froh, dass Tech-Unternehmen den Journalismus gefressen haben." Jetzt könne er sich einen Livestream über Notre-Dame anschauen und YouTubes Fake-News-Hinweis erzähle ihm aus irgendwelchen Gründen etwas über den 11. September.

YouTube entschuldigte sich in einem Statement und nahm die Banner rund um die Notre-Dame-Berichterstattung zunächst offline. Vergangenes Jahr habe man die information panels (übersetzt etwa Informationstafeln) eingeführt, die auf Drittanbieter wie die Encyclopaedia Britannica oder Wikipedia hinweisen, wenn es um Themen geht, über die oft Fehlerhaftes berichtet würde. Die Banner würden automatisch erzeugt, manchmal unterliefen den Systemen dabei aber Fehler. Wie gravierend sie wahrgenommen würden, zeigte der Brand der Notre-Dame nun eindrücklich. Es ist nicht einfach für einen Algorithmus, zwischen Desinformation und Information zu unterscheiden. Für ein Bilderkennungssystem sind zwei Türme erst einmal zwei Türme. Die Technologie ist noch nicht weit genug, um architektonische oder situative Unterschiede zu erkennen.

Desinformation manipuliert kaum, stärkt aber bestehende Ansichten

Seit Jahren versuchen YouTube oder auch Facebook und Twitter, bewusst verbreitete Falschnachrichten aus ihren Netzwerken zu verbannen. Bei aktuellen Nachrichtenlagen wie etwa Terroranschlägen kursieren immer wieder Bilder und Videos, die angeblich den Tatort oder die Situation zeigen sollen, tatsächlich aber schon älter sind oder an ganz anderen Orten aufgenommen wurden. Auch zu Notre-Dame und der bislang ungeklärten Ursache des Brandes verbreiten sich längst krude Verschwörungstheorien ohne Substanz.

Zwar machten solche Falschinformationen oder zahlreiche Beispiele erfundener Berichte über US-Präsident Donald Trump und seine Herausforderin Hillary Clinton im Wahlkampf 2016 diversen Studien zufolge nur einen kleinen Teil eines Newsfeeds aus. Sie werden zwar vielfach geteilt, doch weisen Wissenschaftlerinnen und Wissenschaftler darauf hin, dass Menschen ihre Meinungen oder Haltungen nicht aufgrund manipulativer Geschichten sofort ändern. Allerdings stützen falschen Berichte und Videos bestehende Überzeugungen und verstärken sie, ungeachtet ihres Wahrheitsgehalts. Das ist die eigentliche Gefahr. Manche Expertinnen und Experten führen so etwa den aktuell schweren Masernausbruch in den USA darauf zurück, dass auf Portalen wie YouTube die Angst vor dem Impfen geschürt werde und Videos ungestört empfohlen und weiterverbreitet werden können.