Jeder kann heute Opfer von Kampagnen im Netz werden, das zeigt das Beispiel von Richard Gutjahr. Der deutsche Journalist geriet in den Fokus von Verschwörungstheoretikern, Reichsbürgern und Antisemiten, nachdem er 2016 zufällig kurz nacheinander in der Nähe zweier Anschläge war. Damals raste am 14. Juli ein Lastwagen in Nizza durch eine Menschenmenge, und am 22. Juli lief ein Mann in einem Münchener Einkaufszentrum Amok. Gutjahr berichtete über beide Ereignisse. Im Internet kursieren seitdem krude Theorien über ihn und seine Familie, sie werden auch persönlich bedroht, er wird immer wieder mit den Taten in Verbindung gebracht. Doch als er Facebook entsprechende Posts meldete, reagierte das Netzwerk nicht. Immer und immer wieder nicht.

Auf dem South-by-Southwest-Technikfestival (SXSW) in Austin erzählte Gutjahr seine Geschichte nach einer Diskussion über Fake-News. In der Runde saß auch der Facebook-Manager Shaarik Zafar. Der Journalist konfrontierte ihn in der Fragerunde mit der Untätigkeit seines Unternehmens. "Ist meine Familie eigentlich nur Kollateralschaden für Sie?", fragte Gutjahr. Viel mehr als eine Entschuldigung und das Angebot, sich um seinen Fall zu kümmern, konnte Zafar nicht anbieten. Das kann man ihm vielleicht nicht persönlich anlasten – seinem Unternehmen aber schon.

Gutjahrs Beispiel verdeutlicht, wie wenig Netzwerke gegen Kampagnen und Falschmeldungen auf ihren eigenen Plattformen vorgehen. Und was sie überhaupt ausrichten können. Zwar zeichnet Facebook mittlerweile die Seriosität von Nachrichtenseiten aus, auch können Nutzerinnen und Nutzer ihrer Ansicht nach falsche Informationen melden. Nur bringt das einem einzelnen Betroffenen wie Gutjahr wenig. Es ist sehr schwer, sich gegen Lügen im Internet zu wehren.

Nicht mehr einig über Fakten

Dabei beschäftigt das Thema Facebook und andere Plattformen schon seit fast drei Jahren. Seitdem Donald Trump die US-Präsidentschaftswahl 2016 gewann, diskutiert auch die Öffentlichkeit darüber, wie man Fake-News erkennen und Verschwörungstheorien eindämmen kann. Denn nach der Wahl schrieben etliche Medien Trumps Sieg diversen Desinformationskampagnen zu, die ihn sehr gut aussehen ließen und seine Kontrahentin Hillary Clinton diffamierten.

Fake-News ist zum geflügelten Begriff geworden, er meint alle erdenklichen Phänomene von halb oder überhaupt nicht mehr den Tatsachen entsprechenden Meldungen. Es geht um absichtlich gefälschte Informationen oder solche, die Gerüchte, Lügen und Verschwörungstheorien weiterverbreiten. Die Motivationen dahinter sind unterschiedlich, haben politische, finanzielle oder auch gesellschaftliche Gründe. Allerdings ist der Begriff auch umstritten, weil Trump ihn selbst genutzt hat, um unerwünschte Berichterstattung abzuwerten.

Dabei sind wir alle viel weniger manipulierbar durch Fehlinformationen, als es den Anschein hat. Fake-News beeinflussen beispielsweise nicht, was wir glauben, wie wir denken oder wen wir wählen. Wissenschaftlerinnen und Wissenschaftler haben sich seit 2016 intensiv damit beschäftigt, ob uns absichtlich gestreute falsche Informationen wirklich manipulieren, und herausgefunden: Zwar verbreiten sich unwahre Informationen, aber sie werden oft nur von wenigen wahrgenommen. Und vor allem ändern sie nicht unsere grundsätzlichen Ansichten oder Meinungen (Journal of Economic Perspectives: Allcott et al., 2017).

Trotzdem sind Fake-News nicht harmlos: Auch wenn Menschen nicht unbedingt an ein unwahres Ereignis glauben oder bestimmte Ansichten übernehmen, nur weil sie Fehlinformationen gelesen haben, so können diese doch unsere bestehenden Überzeugungen verstärken. Wer 2016 beispielsweise Trump unterstützte, war eher geneigt, Fake-News auf Twitter zu teilen – weil sie das eigene Weltbild untermauerten (Science: Grinberg et al., 2019).

Das Problem: Selbst wenn man die Menschen mit der Wahrheit konfrontiert, wollen sie manchmal lieber das glauben, was sie gelesen haben. Das gilt nicht nur für Trump-Unterstützer. "Früher waren wir uns nicht einig in unseren Meinungen, jetzt sind wir uns nicht einig über Fakten", sagte der Autor und Berater Wajahat Ali auf einem Panel während des South by Southwest.

Als Grund dafür sieht er eine Vertrauenskrise der Medien. Nach der US-Wahl 2016 glaubten einer Gallup-Umfrage zufolge nur noch 32 Prozent der Amerikanerinnen und Amerikaner, dass Massenpublikationen akkurat und fair berichteten. In den vergangenen Jahren ist der Anteil zwar wieder gestiegen, auf zuletzt 45 Prozent. Doch es gibt große Unterschiede je nach politischer Überzeugung: Während 76 Prozent der Demokraten auf etablierte Medien vertrauen, sind es nur 21 Prozent der Republikaner.

Wenn die unabhängige Information der Privatsphäre weicht

Nun haben Menschen auch schon früher vor allem das geglaubt, was in ihr Weltbild passte, und die Zeitungen gelesen, die es am ehesten bestätigten. Aber diese Publikationen verpflichteten sich der Wahrheit. Durch Facebook und YouTube erreichen Fehlinformationen oder auch Verschwörungstheorien nun völlig ungefiltert ein breites Publikum. Ein einzelner Nutzer ohne Reputation könne heute in einigen Fällen genauso viele Leserinnen und Leser erreichen wie Fox News, CNN oder die New York Times, schreiben die Wissenschaftler Hunt Allcott und Matthew Gentzkow in ihrer 2017 erschienenen Studie.

Beispiel Impfungen: In den USA gibt es erstmals seit Jahrzehnten wieder einen Ausbruch von Masern. Politiker und Expertinnen machen dafür Facebook und YouTube mitverantwortlich: Facebook, weil Menschen in geschlossenen Gruppen Angst vorm Impfen schüren; und YouTube, weil dort Impfgegner zweifelhafte Informationen weitgehend ungestört verbreiten können. Der Algorithmus des Videoportals hat bisher sogar gut laufende Videos über Zweifel am Impfen weiterempfohlen. Beide Portale haben beim Thema Impfen reagiert: YouTube will die Beiträge von Impfgegnern nicht weiter bewerben, Facebook keine entsprechenden Gruppen mehr anzeigen.

Selbst gut gemeinte Änderungen am Newsfeed können die Desinformationsindustrie weiter bestärken. Facebooks Gründer und Chef Mark Zuckerberg kündigte 2018 an, dass man künftig mehr Posts von Freunden, Familie und Gruppen sehen werde. Es gebe beispielsweise enge Communitys rund um TV-Serien und Sportteams. Die werden nun eher angezeigt. Weniger Nachrichten, mehr persönliche Interaktionen – das klingt erst einmal gut. Doch ausgerechnet diese Algorithmusänderung könnte den Verbreiterinnen von Fake-News und Verschwörungstheorien helfen. Schließlich unterscheidet das Computerprogramm nicht zwischen einer Nutzerin, die dem 1. FC Köln folgt, und einem Nutzer, der Mitglied einer geschlossenen Chemtrail-Gruppe ist.

Auch wenn Fake-News, Verschwörungstheorien oder Trollkampagnen nur einen kleinen Teil der Menschen erreichen, so wird es für diese schwieriger, dem Strudel an Fehlinformationen zu entkommen. "Ich glaube nicht, dass Facebook darüber nachgedacht hat, was Communitys in einem extremistischen Umfeld bedeuten", sagte der Journalist Charlie Warzel von der New York Times. Durch weitere ähnlich denkende Menschen in geschlossenen digitalen Räumen fühlten sich die Nutzerinnen und Nutzer ermächtigt. Und es wird schwieriger, an sie heranzukommen und ihnen andere Informationen zugänglich zu machen. "Von außen gesehen ist diese Privatsphäre in geschlossenen Facebook-Gruppen beängstigend", sagte Brandy Zadrozny, Reporterin bei dem US-Fernsehsender NBC. Sie beschäftigt sich unter anderem mit Verschwörungstheorien im Netz.

Wie entkräftet man Fake-News?

Andererseits hilft es eben auch nicht, über Fake-News oder Verschwörungstheorien zu berichten und ihnen Fakten entgegenzustellen. Faktenchecks erreichten fast nie die Nutzerinnen und Nutzer, heißt es in einer vom European Research Council geförderten Studie (Guess et al., 2016). Absurde Ideen werden dadurch nur einem noch größeren Publikum bekannt und finden möglicherweise noch mehr Anhängerinnen. Entscheiden wiederum die Plattformen, was eine falsche Nachricht oder eine Verschwörungstheorie ist oder nicht, werden sie zu einer Art Schiedsrichter über die Wahrheit. Das gibt ihnen zu viel Macht. Wie also wirklich etwas ändern?

Es gibt verschiedene Antworten darauf. Manche wollen die Motive der Fake-News-Macher besser erklären, den Antrieb von Verschwörungstheoretikern. Andere wünschen sich bessere Kennzeichnungen für Nachrichtenseiten: Ähnlich wie bei Nährwerttabellen auf Lebensmitteln müsste es dann auch Angaben über den Wahrheitsgehalt geben. Wieder andere propagieren eine gewisse Leichtigkeit, man müsse sich über die Anführerinnen und Anführer von Verschwörungstheorien lustig machen. Vor allem aber, und darin scheinen sich fast alle Experten einig auf dem SXSW, müsse man schon Schülern beibringen, unseriöse von seriösen Quellen zu unterscheiden. "Wir müssen unsere Kinder so bilden, dass sie durch das Internet kritisch navigieren", sagte etwa Giuseppe Abbamonte, Direktor für Medienpolitik in der EU-Kommission.

Deepfake-Videos, die selbst Nachrichtenagenturen täuschen können

Das wird noch wichtig werden, denn falsche Informationen sind für das bloße Auge immer schwieriger zu erkennen. Das verdeutlichte in Austin die Chefin der Abteilung Newsgathering bei Reuters, Hazel Baker. Sie legte ihren Kolleginnen und Kollegen ein Video vor und fragte sie, ob ihnen etwas daran komisch vorkomme. Das ist nicht ungewöhnlich, ihr Team prüft tagtäglich Videomaterial auf Authentizität und Glaubwürdigkeit.

"Es gibt oft Versuche, uns in die Irre zu führen", sagte Baker. Videos etwa, die angeblich aus der Ukraine stammten, stellten sich als Filme heraus, die tatsächlich eine Szene im syrischen Aleppo zeigten. Doch das Video, das Baker ihren Kolleginnen und Kollegen gab, war eine besondere Falle. Zu sehen ist darauf eine schwarze Frau im fliederfarbenen Jackett, sie spricht Französisch. Sie blickt direkt in die Kamera, hinter ihr nichts als ein neutraler hellblauer Hintergrund. Baker hat es selbst in Auftrag gegeben – es ist ein Fake, um ihre Kollegen zu prüfen.

Die Frau, die in dem Video zu sehen ist, spricht nämlich gar kein Wort Französisch. Auch ihre Stimme klingt anders. Eine andere Frau hat den Text vorgelesen, und eine externe Firma hat aus beiden Aufnahmen zusammen das Video so manipuliert, dass sich der Mund der Frau im Video fast perfekt zur Tonspur bewegt.

Schlaue Programme

Deepfake heißt diese Technologie, bei der neuronale Netze Bildmaterial manipulieren. Ende 2017 verbreitete ein Reddit-Nutzer solche Videos, in denen er die Köpfe bekannter Schauspielerinnen auf Menschen in Pornovideos montiert hatte. Im April 2018 veröffentlichte das US-Onlinemagazin Buzzfeed ein Deepfake-Video, in dem der frühere US-Präsident Barack Obama unter anderem seinen Amtsnachfolger Donald Trump als "kompletten Volltrottel" zu bezeichnen schien.

Nachdem dieses Video veröffentlicht wurde, berichteten zahlreiche Medien über das Missbrauchspotenzial dieser Technologie. Nutzerinnen und Nutzer mögen sich daran gewöhnt haben, den Wahrheitsgehalt von Texten, die Authentizität von Fotos hinterfragen zu müssen. Aber ein Video, in der eine Person Dinge direkt in die Kamera spricht – kaum etwas wirkt im ersten Moment authentischer. In einem politisch aufgeheizten Klima könnte schon ein einziges gefälschtes Video verheerende Auswirkungen haben, warnen Politiker und Expertinnen. In Großbritannien griff das Unterhaus das Problem sogar in einem Papier zu Desinformation und Fake-News auf. Das Schlagwort Infokalypse machte die Runde.

Und weil sich auch Reuters sorgte, verbreitete es das manipulierte Testvideo mit der Französisch sprechenden Frau unter ihren Mitarbeitern. Die gute Nachricht: Ihnen fiel auf, dass etwas mit diesem Video nicht stimmte – auch wenn es ihnen teils schwerfiel, zu benennen, was denn verwirrte. Baker berichtet, dass einem Kollegen mit vielen Jahren Erfahrung etwa aufgefallen sei, dass Mund und Sprache zu Anfang leicht verschoben gewesen seien. Teils passten die Mundbewegungen nicht zu denen der französischen Aussprache, sagten andere. Dass der Kopf der Person so merkwürdig steif sei. Das Blinzeln ungewöhnlich. Perfekt sind die Deepfake-Videos noch nicht. "Aber die Programme werden immer schlauer", sagt Baker. Bis jetzt, so ihr Kollege Nick Cohen, habe es noch keine Nachricht gegeben, in die ein unerkanntes Deepfake-Video eingeflossen sei. Doch das sei nur eine Frage der Zeit.

Genau das stellen andere Beobachter wiederum infrage. Facebook und Twitter spüren zwar regelmäßig große Netzwerke politischer Fake-Konten auf und löschen sie. Deepfake-Videos haben diese Accounts aber bislang nicht hinterlassen. Und das, obwohl die nötige Technologie ihnen durchaus zur Verfügung stehe, wie Russell Brandom, Redakteur des US-Technikmagazins The Verge, vor wenigen Tagen schrieb. "Die vorhergesagte Welle politischer Deepfake-Videos hat sich nicht verwirklicht. Zunehmend wirkt es, als handle es sich bei der Panik rund um KI-gestützte Propaganda um einen falschen Alarm."

Das liege daran, dass sich das Produzieren solcher Videos für Politiktrolle nicht lohne. Teils, weil die technische Bearbeitung vorhersehbare Artefakte auf veränderten Videos hinterließe, die von einem maschinell lernenden Algorithmus erkannt werden könnten. Vor allem aber gehe es bei irreführenden Trollkampagnen viel weniger um die vermittelte Information – im Sinne einer Auseinandersetzung mit unwiderlegbaren Fakten, wie es Videos derzeit darstellen –, sondern vielmehr um die Zugehörigkeit zu einer bestimmten Gemeinschaft mit denselben Überzeugungen. Was dabei stimmt oder nicht, ist eigentlich egal.