Live auf YouTube haben Hunderttausende verfolgt, wie Flammen am Montagabend stundenlang den historischen Dachstuhl von Notre-Dame in Schutt und Asche verwandelten. Etliche Fernsehsender nutzten ihre YouTube-Kanäle, um den Brand zu dokumentieren. Was für Zuschauerinnen und Zuschauer klar als aktuelle Nachrichtenlage erkennbar war, überforderte jedoch den Algorithmus der Videoplattform.

Wie sich der Brand in Notre-Dame entwickelte

© ZEIT ONLINE

Mehr noch: Automatisch wurden in den USA die Liveberichte als potenzielle Desinformationskampagne eingestuft. Und um Nutzerinnen und Nutzer eben vor vermeintlich falschen Nachrichten zu warnen, wurde ihnen unter den Videos ein Banner eingespielt, das sie über den Terroranschlag am 11. September 2001 aufklärte und auf einen Lexikoneintrag der Encyclopaedia Britannica verwies. Die brennenden Zwillingstürme des World Trade Centers in New York am 11. September 2001 verschmolzen für den Algorithmus mit den Flammen in und hinter den Türmen der historischen Kathedrale in Paris am 15. April 2019. 

Auf Twitter wiesen viele Menschen direkt auf die Einblendung hin. Der Buzzfeed-Journalist Ryan Broderick kommentierte ironisch: "Ich bin so froh, dass Tech-Unternehmen den Journalismus gefressen haben." Jetzt könne er sich einen Livestream über Notre-Dame anschauen und YouTubes Fake-News-Hinweis erzähle ihm aus irgendwelchen Gründen etwas über den 11. September.

YouTube entschuldigte sich in einem Statement und nahm die Banner rund um die Notre-Dame-Berichterstattung zunächst offline. Vergangenes Jahr habe man die information panels (übersetzt etwa Informationstafeln) eingeführt, die auf Drittanbieter wie die Encyclopaedia Britannica oder Wikipedia hinweisen, wenn es um Themen geht, über die oft Fehlerhaftes berichtet würde. Die Banner würden automatisch erzeugt, manchmal unterliefen den Systemen dabei aber Fehler. Wie gravierend sie wahrgenommen würden, zeigte der Brand der Notre-Dame nun eindrücklich. Es ist nicht einfach für einen Algorithmus, zwischen Desinformation und Information zu unterscheiden. Für ein Bilderkennungssystem sind zwei Türme erst einmal zwei Türme. Die Technologie ist noch nicht weit genug, um architektonische oder situative Unterschiede zu erkennen.

Desinformation manipuliert kaum, stärkt aber bestehende Ansichten

Seit Jahren versuchen YouTube oder auch Facebook und Twitter, bewusst verbreitete Falschnachrichten aus ihren Netzwerken zu verbannen. Bei aktuellen Nachrichtenlagen wie etwa Terroranschlägen kursieren immer wieder Bilder und Videos, die angeblich den Tatort oder die Situation zeigen sollen, tatsächlich aber schon älter sind oder an ganz anderen Orten aufgenommen wurden. Auch zu Notre-Dame und der bislang ungeklärten Ursache des Brandes verbreiten sich längst krude Verschwörungstheorien ohne Substanz.

Zwar machten solche Falschinformationen oder zahlreiche Beispiele erfundener Berichte über US-Präsident Donald Trump und seine Herausforderin Hillary Clinton im Wahlkampf 2016 diversen Studien zufolge nur einen kleinen Teil eines Newsfeeds aus. Sie werden zwar vielfach geteilt, doch weisen Wissenschaftlerinnen und Wissenschaftler darauf hin, dass Menschen ihre Meinungen oder Haltungen nicht aufgrund manipulativer Geschichten sofort ändern. Allerdings stützen falschen Berichte und Videos bestehende Überzeugungen und verstärken sie, ungeachtet ihres Wahrheitsgehalts. Das ist die eigentliche Gefahr. Manche Expertinnen und Experten führen so etwa den aktuell schweren Masernausbruch in den USA darauf zurück, dass auf Portalen wie YouTube die Angst vor dem Impfen geschürt werde und Videos ungestört empfohlen und weiterverbreitet werden können.

Die "besten Maschinen des Planeten" haben versagt

Bisher hieß es von den Plattformen immer, man werde diesen Problemen mit mehr Technologie begegnen. Facebook-Chef Mark Zuckerberg versprach etwa während einer Anhörung vor dem US-Kongress 2018, dass man falsche Informationen mithilfe von künstlicher Intelligenz in fünf bis zehn Jahren lösen werde. YouTubes Mutterfirma Google stellte erst kürzlich auf der Münchner Sicherheitskonferenz ein Whitepaper vor, in dem das Unternehmen seinen Umgang mit Fake-News beschrieb: Man setze auf YouTube effektive Rankingsysteme ein, die Desinformationen niedriger bewerteten und zuverlässige Inhalte bevorzugten, heißt es darin. In aktuellen Nachrichtenlagen bevorzuge man seriöse Quellen.

Die Grenzen dieser Technologien bekamen viele Nutzerinnen und Nutzer dann am Montagabend zu sehen. Es bringt natürlich wenig, wenn der Algorithmus die Inhalte seriöser Quellen dann als unseriös einstuft. Im Fall des Brands in Notre-Dame erschienen die information panels etwa unter den Videos von Sendern wie NBC oder France24. "An diesem Punkt ist nichts besser als der Mensch", sagte David Carroll, Associate Professor für Mediendesign an der New School in New York, der Washington Post. Ein Mensch könne die Bilder aus Paris nur schwer falsch einordnen, die "besten Maschinen des Planeten" aber hätten versagt.

Selbst wenn Zuckerberg recht behält und die Algorithmen in den kommenden fünf bis zehn Jahren falsche Nachrichten besser erkennen, sind die Probleme dadurch nicht gelöst. Parallel wird es schließlich auch einfacher, Videos zu manipulieren. Solche Deepfakes sind schon für Menschen kaum von realen Bildern zu unterscheiden. Für ein Softwaresystem dürfte das fast unmöglich sein – vor allem in aktuellen Nachrichtenlagen wie nun in Paris.