Und dann gibt es die, die tagtäglich Fälschung von Original unterscheiden müssen. Die Nachrichtenagentur Reuters hat begonnen, sich für eine Zukunft mit Deepfake-Videos zu wappnen. Reuters stellte seine Faktenchecker auf die Probe: Erkennen sie tatsächlich ein Deepfake-Video, wenn sie eines vor sich haben? Um das zu überprüfen, erstellte die Agentur einen Deepfake, in dem eine Nachrichtensprecherin auf Französisch eine Meldung vortrug. Die gute Nachricht: Den Faktencheckern fiel auf, dass etwas mit diesem Video nicht stimmte. Die schlechte: was genau falsch war, konnten sie nicht benennen, es blieb bei einem "unbehaglichen Gefühl", berichtet Hazel Baker, Chefin der Abteilung zur Prüfung von nutzergenerierten Inhalten bei Reuters. Bedeutet: Aufwändig gemachte Deepfake-Fälschungen verwirren schon heute selbst Profis.

Wie also hebelt man das aus? Es klingt erst einmal naheliegend, zur Bekämpfung eines technischen Problems auf Technik zu setzen. Forensische Methoden zu entwickeln, die Deepfakes von authentischem Bildmaterial unterscheiden können.

Hany Farid, Informatikprofessor an der Universität Berkeley, ist einer der Forscher, die mit Hochdruck daran arbeiten. Licht und Schatten, Winkel und Unschärfen der Gesichtszüge, Kleidung und Haare, und wie sich der Gesichtsteint subtil verändert, wenn Blut durch Gefäße gepumpt wird – all das kann den Forensikern Aufschluss über die Echtheit eines Videos geben.

Fälschen, lernen, detektieren

Doch es ist ein Katz- und Mausspiel. Die Forensikwerkzeuge werden schnell wirkungslos, weil auch die Macher von Deepfake-Videos ihre Techniken ständig verbessern. Und blitzschnell reagieren. So veröffentlichte im Sommer 2018 ein US-Forscher eine ganz einfache Methode, Videofälschungen zu erkennen: Deepfakes blinzelten nicht oder zu selten, stellte er fest. Kurze Zeit später tauchten dann die ersten Deepfake-Videos auf, in denen die Abgebildeten korrekt blinzelten.

Kein Einzelfall, meint Hany Farid: Früher habe es Jahre gedauert, bis Fälschungsmethoden neue Forensikwerkzeuge ausgehebelt hätten – heute seien es nur noch zwei, drei Monate. "Wir sind unterlegen", sagte er im Sommer bei einer Anhörung vor dem US-Kongress. Hundert Menschen, die an der Herstellung von Deepfakes arbeiteten, stünden einem gegenüber, der an Erkennungsmethoden forsche.

Aktuell sei die Detektion noch einfach, weil die Fakes nicht ganz so gut seien, schreibt hingegen Matthias Nießner. Er ist Professor für Visual Computing an der TU München, in Kooperation mit US-Eliteuniversitäten arbeitet auch er an Werkzeugen, mit denen sich Deepfakes und andere Videomanipulationen erkennen lassen. Gerade erst hat er eines vorgestellt, das Maschinen mit verfälschten Videos füttert und sie so lernen lässt, Deepfakes zu erkennen. Nießner ärgert sich, dass in der Öffentlichkeit unter dem Schlagwort Deepfakes vieles diskutiert werde, das in der Film- und Videospielindustrie bereits seit Jahren im Einsatz sei.

Propaganda kann man viel einfacher machen.
Matthias Nießner, Informatiker

Was hingegen in der Öffentlichkeit auffällt, sind Videos wie jenes, das im Mai die demokratische Spitzenpolitikerin Nancy Pelosi vermeintlich betrunken zeigte. Es taucht in sozialen Netzwerken auf. "Das ist natürlich kein Deepfake, da steckt auch keinerlei Intelligenz dahinter", sagt Nießner. Pelosis schleppende Sprache, ihre ungelenken Bewegungen – all das wirkte nur alkoholisiert, weil das Video verlangsamt abgespielt wurde. Einen Cheapfake würden andere das nennen. Wie Claire Wardle sagt auch Nießner: "Propaganda kann man viel einfacher machen."

Selbst wenn jemand ein Deepfake-Video erstelle, mit einem Hybrid beispielsweise aus Putin und Trump, schreibt Nießner ZEIT ONLINE, wage er zu bezweifeln, ob davon so viel Gefahr ausgehe. "Man sieht ja, dass es ein Fake ist." Bedrohlicher seien Deepfakes, die als Porno aus Rache gegen Frauen (revenge porn) eingesetzt oder unter Jugendlichen fürs Mobbing etwa an Schulen benutzt würden: "Hier ist teilweise völlig egal, ob man erkennt, dass eine Sequenz gefälscht ist – der Schaden für die betroffene Person ist so oder so entstanden."

Fälschung erkannt. Und dann?

Was aber bringt es am Ende, einen Deepfake zu erkennen? Viele Probleme beginnen erst dann. Forensiker können herausfinden, dass ein Video manipuliert wurde – aber nicht, warum. Bedeutet: Selbst wenn es allgemein zugängliche Tools zum Enttarnen gäbe, müssten die Plattformen, auf denen die Videos und Audiodateien gepostet werden, trotzdem entscheiden, was stehen bleiben darf und was zu löschen ist. Welche Deepfakes sind Kunst oder Satire und als solche zulässig? Was ist harmlos oder einfach Unterhaltung – und was böswillige Manipulation? Es sind Fragen, die immer und immer wieder auftreten, wenn es darum geht, eine Technologie beherrschen zu wollen, die für den einen Zweck unterbunden werden soll und für den anderen vermarktet.

"Letztlich wird man sich daran gewöhnen, dass digitale Videos künstlich generiert werden können", sagt Matthias Nießner. Wissend, dass die Qualität von Deepfakes in absehbarer Zeit immer besser wird. Und zählt dann doch technische Möglichkeiten auf, Deepfakes entgegenzuwirken – mit dem digitalen Signieren von Videos etwa, das dessen Authentizität bezeugen könne.

Viele andere kritisieren aber auch, dass Technologie allein das Problem der Deepfakes nicht lösen können wird. Große Verantwortung fällt einmal mehr sozialen Medien und ihren Plattformen zu. Einfach automatisiert veränderte Videos zu blocken – das wird wenig zielführend sein. Die Verifikationsexpertin Wardle appelliert in ihrem New-York-Times-Video an sie, gut darüber nachzudenken, wie sie mit diesen Deepfake-Inhalten umgehen und wie sie sie labeln. Wardle richtet sich aber auch an die Nutzerinnen und Nutzer dieser Plattformen. Die nämlich sollten auch selbst Verantwortung übernehmen: "Wenn Sie sich nicht hundertprozentig sicher sind, dass etwas authentisch ist: bitte teilen Sie es nicht."