Die britische Sängerin Adele spricht in einem Video der New York Times über Deepfakes. Eine Technologie, die berühmte Menschen betreffe, sagt sie und wackelt bedeutungsvoll mit dem Kopf. Obwohl, Moment – nein, das ist überhaupt nicht Adele: Zwischen zwei Sätzen, binnen eines Wimpernschlags, verwandelt sich ihr Gesicht in das einer anderen Person. "Das hier ist auch ein Deepfake", sagt nun Claire Wardle, Verifikationsexpertin und Mitgründerin des Antidesinformationsnetzwerks First Draft.

Deepfakes heißen manipulierte Videos, mit deren Hilfe man Gesichter tauschen kann, Personen Worte in den Mund legen kann, die sie so nie gesagt haben, ihre Körper Handlungen vornehmen lassen kann, die sie so nie vollzogen haben. Es ist eine Technologie, die derzeit für hitzige Diskussionen sorgt. Denn: Videos, in denen man Menschen Aussagen unterschieben kann oder in denen sie erst die eine Person zu sein scheinen, sich dann aber als jemand ganz anderes entpuppen – das ist der Stoff, aus dem Alpträume gemacht sind.

Es ist leicht, sich das Missbrauchspotenzial vorzustellen, in dieser Zeit, in der die Angst vor Desinformation ebenso groß ist wie die Dünnhäutigkeit und Hysterie, mit der in sozialen Netzwerken auf so ziemlich alles reagiert wird. Natürlich kann man die Technologie ganz harmlos einsetzen: Kaspert ein Komödiant mit Deepfakes herum oder stellt sich heraus, dass es gar nicht die echte Adele ist, die dort in einem Video über Technik und Gesellschaft spricht, dann ist das kein Grund, in Panik zu verfallen.

Doch was, wenn Politikern mit Deepfakes skandalöse Aussagen untergeschoben würden? Oder Polizistinnen? Was, wenn die Technologie genutzt würde, um politische Aktivisten und Journalistinnen einzuschüchtern? Wenn Privatpersonen mit derartigen Filmen gemobbt und bloßgestellt würden? Einiges davon passiert bereits heute.

Dass man in Texten Falschaussagen platzieren kann, ist bekannt. Auch, dass Fotos zu Desinformationszwecken verfälscht werden können. Videos aber, Tondokumente, sie galten vielen bislang als harte Belege. Deepfakes stellen nun selbst das infrage. Können wir künftig nicht mehr unseren Augen und Ohren trauen? Diese Aussicht alarmiert viele – angeheizt auch durch alarmistische Medienberichte und -kommentierung.

Puppenspiel mit viel Rechenaufwand

Was bei Deepfakes technisch passiert, steckt schon in ihrem Namen: Sie sind Videofälschungen, die mithilfe von Deep Learning entstanden sind – also mit maschinellem Lernen, das auf großen Datenmengen und künstlichen neuronalen Netzen basiert.

Mit viel Rechenaufwand erstellen die Netze, die grob gesagt ähnlich untereinander agieren wie Nervenverknüpfungen im menschlichen Gehirn, aus zwei Videoquellen ein neues künstliches Video. Und zwar, indem man zum Beispiel Originalaufnahmen des Popstars Adele mit der Aufzeichnung der Faktencheckerin Wardle kreuzt – und so lange durchrechnen lässt, bis ein Ergebnis entsteht, das so wirkt, als spräche Adele selbst, obwohl eigentlich ein Hybrid aus Adele und Wardle zu sehen ist. So entstehen Videos, die quasi ein technisch hoch entwickeltes Puppenspiel sind, erschaffen durch künstliche Intelligenz (KI): Die Macher können die Gestik und Mimik einer Person steuern, ihnen aber auch neue Sätze in den Mund legen.

Deepfakes müssen aber nicht unbedingt Videos sein: Mit dieser Technologie lassen sich auch Audioaufzeichnungen manipulieren – so, dass es sich anhört, als hätte eine Person einen Satz gesagt, der so nie gefallen ist.

Was tun, wenn's trumpt?

Besonders im gesellschaftspolitisch gereizten Klima in den USA ist die Furcht vor dem destruktiven Potenzial von Deepfakes groß. Der Präsidentschaftswahlkampf 2016 war geprägt von Desinformation und mutmaßlichen Manipulationsversuchen. 2020 wird erneut gewählt – und die Sorge, dass es ähnlich schlimm wird, ist groß. Was, wenn Deepfakes die Spaltung im Land weiter anfachen? Wenn Kandidaten diskreditiert werden – kurz vor einer Kopf-an-Kopf-Abstimmung?

Sorgen wie diese haben dazu geführt, dass allerorten reagiert wird. Darpa, die Forschungsagentur des US-Verteidigungsministeriums, gibt dafür einen zweistelligen Millionenbetrag aus, dass Methoden zur Enttarnung von Deepfakes erforscht werden. Facebook hat einen Wettbewerb ausgerufen: 10 Millionen US-Dollar will das Unternehmen für die Entwicklung von Deepfake-Erkennung und -Prävention zahlen. Auch Google engagiert sich. In den USA wird an der Erkennung von Deepfakes geforscht, aber auch Teams aus Deutschland und anderen Ländern arbeiten daran. 

Parallel dazu haben einige US-Bundesstaatem bereits Gesetze beschlossen, die Deepfakes unter bestimmten Umständen verbieten. Vor Wahlen etwa – oder wenn in den Videos Sex gezeigt wird, der nicht mit Zustimmung aller dort gezeigten Personen zustande kam. Auch in Washington wird über Deepfakes diskutiert. Und Medien und Wissenschaftler reden sich ebenfalls die Köpfe heiß.

Die Evolution der perfekten Täuschung

Einige Deepfakes wirken heute noch sehr plump, andere schon überzeugend – insbesondere dann, wenn Personen zu sehen sind, die dem Zuschauer weniger vertraut sind. Vor allem ist es aber beunruhigend, zu beobachten, wie schnell die Deepfakes besser werden.

Es liegt auf der Hand, dass sich die Film- und Computerspielbranche brennend für die Technologie hinter Deepfakes interessieren. Einfach weil die Technologie Eingriffe in der Postproduktion fast schon trivial machen würde. Auch digitale Modehändler experimentieren damit – etwa um ihre Kreationen von künstlich erzeugten Models präsentieren zu lassen. Andere Branchen ebenso. Was einmal mehr zeigt: eine Technologie, die den einen als gesellschaftliches Risiko gilt, kann von anderen völlig harmlos oder sogar konstruktiv genutzt und entwickelt werden.

Bis sie ganz real aussehen, dürfte es nur noch irgendetwas zwischen sechs Monaten bis zu einem Jahr dauern, schätzte Hao Li kürzlich in einem Interview. Li arbeitet an KI-gestützter Bewegtbildbearbeitung – und gilt manchen gar als Deepfakes-Pionier. Er ist einer, der rund um diese Technologie viele Rollen gleichzeitig einnimmt. Einerseits hat der 38-Jährige eine Firma gegründet, die fortschrittliche KI-Technologien für die Film- und Computerspielindustrie einsetzt. Er arbeitete daran mit, Apples Emojis mit Gesichtsausdrücken zu animieren und den verstorbenen Schauspieler Paul Walker posthum in den Hollywood-Blockbuster Furious 7 zu montieren.

Li ist aber auch außerordentlicher Professor an der University of Southern California und forscht mit daran, Deepfakes besser erkennen zu können. Er sei überzeugt, dass es möglich wäre, Deepfakes zu erzeugen, die weder von Menschen noch von Maschinen erkannt werden könnten, schreibt er in einer Mail an ZEIT ONLINE. Was übersetzt bedeuten würde: In Zukunft könnte nicht nur das bloße Auge, sondern auch die IT-Forensik bei gut gemachten Fälschungen darin versagen, das echte vom bearbeiteten, deepgefakten Videomaterial zu unterscheiden.