Viele Experten beruhigten sich lange, dass die Technologie, die für die Erstellung tatsächlich überzeugend aussehender Deepfakes nötig ist, für viele Laien noch zu voraussetzungsreich ist. Im Spätsommer tauchte dann aber in sozialen Netzwerken ein Video auf, das plötzlich infrage stellt, ob dem wirklich so ist. In dem kurzen Clip demonstrierte ein Designer, was die chinesische App Zao kann. Ein Schnappschuss, wenige Sekunden Zeitaufwand – und schon montiert die App das Gesicht ihres Nutzers auf die Köpfe von Schauspielern wie Leonardo DiCaprio oder Kit Harington in bekannten Film- und Fernsehszenen. Eine Demonstration, dass nun praktisch jeder Deepfakes anfertigen kann?

Einerseits kann man sagen: nach allem, was man sehen kann, vermag diese App zwar Mimik aus Bewegtbildern kopieren – aber weder künstliche Aussagen noch Gesichtsausdrücke so erzeugen, dass Menschen fremde Aussagen untergeschoben werden könnten, nur nachgehampeln, was in ausgewählten Filmszenen vorgespielt wurde. Hao Li hingegen sieht die App als Beleg dafür, dass die Technologie viel schneller überzeugende Ergebnisse produziert, als er und andere Wissenschaftler ursprünglich angenommen haben.

Wer verstehen will, wie rasant diese Entwicklung vonstatten geht, muss sich vor Augen führen, wie jung die Technologie hinter den Deepfakes noch ist: Erst 2014 entwickelte der junge Informatiker Ian Goodfellow General Adversarial Networks, kurz GAN. Sie sind es, die aus mehreren Quellen neue Videos oder Fotos erzeugen können, neue Sprachaufnahmen oder Texte.

Fast alle Deepfakes sind noch Pornos

Nach einigen Experimenten tauchte dann drei Jahre später das auf, was so ziemlich jede Anwendung in der Geschichte des Internets popularisiert hat: Pornos. Auf der Plattform reddit postete ein Nutzer Videos, in denen die Gesichter von Prominenten auf die Körper von Pornodarstellerinnen hineingerechnet waren. Veröffentlicht unter dem Nutzernamen deepfakes. Die Aufmerksamkeit war groß, der Name für diese Form der Videos gefunden.

Reddit verbannte die Videos schon kurze Zeit später von seiner Plattform. Doch da existierte bereits neue Software, mit der einigermaßen versierte Nutzerinnen und Nutzer bereits einfachere Videos, in denen das Gesicht einer Person durch das einer anderen ersetzt wird, selbst erstellen können. FakeApp heißt die Anwendung. Die Folge: viele gefälschte Unterhaltungsinhalte, aber auch eine Welle von pornografischen Filmen, in die die Gesichter von Schauspielerinnen und Popsternchen hineinmontiert wurden. Auch eine Journalistin wurde bereits mithilfe solcher Videos unter Druck gesetzt. Deepfakes zeigen aber auch oft nicht prominente Frauen in sexualisierten Kontexten.

Tatsächlich handelt es sich auch heute noch bei 96 Prozent aller Deepfakes, die derzeit im Netz verbreitet werden, um Pornos, zeigt ein Bericht des IT-Sicherheitsunternehmens Deeptrace, das sich auf die manipulierten Inhalte spezialisiert hat.

Einer breiteren Öffentlichkeit sind Deepfakes aus der Unterhaltungsbranche bekannt. Etwa, als der US-Comedian Bill Hader den Schauspieler Tom Cruise in einem Video imitierte – und sich sein Gesicht dabei vor den Augen des Zuschauers in das von Cruise verwandelt. In einem anderen Video war der ehemalige US-Präsident Barack Obama zu sehen, der seinen Amtsnachfolger Trump scheinbar als Dummkopf bezeichnete – bevor aufgelöst wurde, dass es sich – haha – auch bei diesem Internetvideo um einen Deepfake handelt. Angefertigt vom US-Komiker Jordan Peele, der vor den Risiken warnen wollte.

Putschversuch dank Deepfake?

Es gibt aber auch bereits Beispiele dafür, was Deepfakes tatsächlich in der Politik lostreten könnten. Allerdings anders, als viele sich vielleicht vorstellen würden: In Gabun etwa tauchte im Dezember 2018 auf Facebook ein Video auf, in dem Präsident Ali Bongo eine Ansprache hielt. Monatelang war er zuvor nicht mehr in der Öffentlichkeit aufgetreten, galt vielen als schwer krank, vielleicht sogar tot. Sein politischer Gegner bezeichnete die Aufnahmen als Deepfake – und das Video wurde Auslöser eines Putschversuchs durch das Militär von Gabun in der darauf folgenden Woche. Interessanterweise passierte all das, ohne dass eine forensische Analyse tatsächlich belegen konnte, dass es sich bei dem Video um einen Deepfake handelte: Allein die Vorstellung, dass es sich um eine Fälschung handeln könne, genügte, um politische Konsequenzen auszulösen.

Tatsächliche Ereignisse, Lüge oder auch nur die Annahme einer Lüge, all das scheint angesichts von Deepfakes zu verwischen. Die US-Juristen Danielle Citron und Bobby Chesney veröffentlichten einen Bericht, in dem sie vor katastrophalen Konsequenzen warnten, die Deepfakes in Gesellschaften entfalten könnten. Vor allem dort, wo sich politische Lager ohnehin bereits misstrauisch beäugen. Citron sagte der britischen Zeitung The Guardian, sie halte es für möglich, dass zeitlich geschickt platzierte Deepfakes demokratische Prozesse beeinträchtigen könnten – indem sie zum Beispiel in einem Klima gesellschaftlicher Spaltung Vertrauen erodieren, Diskurse entzweien oder den Ausgang einer knappen Wahl in letzter Minute mit einer Fälschung drehen.

Lügen geht auch ohne künstliche Intelligenz

Claire Wardle hingegen, die Verifikationsexpertin von First Draft, nennt die Panik vor Deepfakes in dem Video, zu dessen Beginn sie als Adele zu sehen war, "aufgeblasen". Sie leugne nicht, dass die Technologie besser und billiger werde. Doch sie sieht einen "alarmistischen Hype" um Deepfakes – und bezeichnet den als "möglicherweise gefährlicher als die Technologie selbst".

"Man braucht keine Deepfakes, keine künstliche Intelligenz, um Emotionen zu manipulieren oder Desinformationen zu verbreiten", sagt sie. Und meint damit: Wer lügen will, dem reichen Photoshop, eine stinknormale Videobearbeitungssoftware oder schlicht die Möglichkeit, ein existierendes Foto mit einer irreführenden Bildunterschrift aus dem Kontext zu reißen. Oberflächliche Manipulation nennt Wardle das, "Shallowfakes". Medienwissenschaftler und IT-Sicherheitsexperten stimmen zu, nutzen den Begriff "Cheapfakes", billige Fälschungen.

Wenn das Verbreiten von Lügen und Desinformation im Netz so einfach geht – warum dann mühevoll Deepfakes basteln?

"Ich glaube nicht, dass Technologien rund um Deepfakes das Ende der Welt bedeuten"
Hao Li, Deepfakes-Pionier

Auch Deepfakes-Pionier Li schreibt ZEIT ONLINE: "Ich glaube nicht, dass Technologien rund um Deepfakes das Ende der Welt bedeuten." Genauso wie die Bildbearbeitungssoftware Photoshop ihr noch kein Ende bereitet habe – obwohl damit auch jeder Fotos manipulieren kann, um sie anschließend im Netz zu verbreiten.

Am Ende fürchten Claire Wardle und viele andere weniger, dass unentdeckte Deepfakes für Chaos sorgen. Für viel größer halten sie die Gefahr, dass diese technisch anspruchsvoll manipulierten Videos eine Umgebung schaffen könnten, in der Zuschauer das Gefühl bekommen, überhaupt nichts mehr glauben zu können. Vor diesem indirekten Effekt auf die Demokratie warnen auch die Juristen Citron und Chesney – die "Dividende des Lügners" nennen sie ihn. Ein Kommunikationsmuster, das Leute wie Donald Trump groß gemacht haben. Man muss gar nicht selbst glaubwürdig sein. Menschen müssen gar nicht glauben, was Trump sagt. Es genügt, die Glaubwürdigkeit seiner Gegner und ihrer Quellen infrage zu stellen. Denn: Wenn ohnehin alles gelogen sein könnte, kann man auch eine Tatsache als Lüge diskreditieren.

Andere Menschen aus der Technologie- und Verifikationsszene warnen außerdem, dass Deepfakes weniger die Großen und Mächtigen bedrohen als vielmehr unbekanntere Menschen und Privatpersonen, denen weniger Ressourcen zur Verfügung stehen, um sich gegen potenzielle Verleumdungen durch Deepfakes zu wehren. Lokalpolitiker zum Beispiel. Frauen, deren Ex-Freunde sich mit pornografisch herabwürdigenden Fälschungen rächen wollen. Schüler, die Opfer von Mobbing werden. Leute, denen die Ressourcen fehlen, die große Bühne, um Diskreditierungen ihrer Person öffentlich auszuräumen.