Bisher hieß es von den Plattformen immer, man werde diesen Problemen mit mehr Technologie begegnen. Facebook-Chef Mark Zuckerberg versprach etwa während einer Anhörung vor dem US-Kongress 2018, dass man falsche Informationen mithilfe von künstlicher Intelligenz in fünf bis zehn Jahren lösen werde. YouTubes Mutterfirma Google stellte erst kürzlich auf der Münchner Sicherheitskonferenz ein Whitepaper vor, in dem das Unternehmen seinen Umgang mit Fake-News beschrieb: Man setze auf YouTube effektive Rankingsysteme ein, die Desinformationen niedriger bewerteten und zuverlässige Inhalte bevorzugten, heißt es darin. In aktuellen Nachrichtenlagen bevorzuge man seriöse Quellen.

Die Grenzen dieser Technologien bekamen viele Nutzerinnen und Nutzer dann am Montagabend zu sehen. Es bringt natürlich wenig, wenn der Algorithmus die Inhalte seriöser Quellen dann als unseriös einstuft. Im Fall des Brands in Notre-Dame erschienen die information panels etwa unter den Videos von Sendern wie NBC oder France24. "An diesem Punkt ist nichts besser als der Mensch", sagte David Carroll, Associate Professor für Mediendesign an der New School in New York, der Washington Post. Ein Mensch könne die Bilder aus Paris nur schwer falsch einordnen, die "besten Maschinen des Planeten" aber hätten versagt.

Selbst wenn Zuckerberg recht behält und die Algorithmen in den kommenden fünf bis zehn Jahren falsche Nachrichten besser erkennen, sind die Probleme dadurch nicht gelöst. Parallel wird es schließlich auch einfacher, Videos zu manipulieren. Solche Deepfakes sind schon für Menschen kaum von realen Bildern zu unterscheiden. Für ein Softwaresystem dürfte das fast unmöglich sein – vor allem in aktuellen Nachrichtenlagen wie nun in Paris.