Kaum eine Branche ist so innovativ wie die Pornobranche. Von der Verbreitung von Super-8-Filmen über VHS hin zu Onlinebezahldiensten und Streamingplattformen hat die Pornobranche mehr Einfluss auf neue Technologien gehabt, als viele denken. Als das nächste große Geschäft gelten die virtuelle Realität und Sexroboter. Doch jenseits des Mainstreams entdeckt eine kleine Szene derzeit etwas anderes für sich: Software, mit der sich die Gesichter von Pornodarstellern durch die von Prominenten ersetzen lassen.

Deepfakes heißen die daraus resultierenden Clips in der Szene – in Anlehnung an den gleichnamigen Reddit-Nutzer, der Ende des vergangenen Jahres den Trend mit gefälschten Pornovideos von unter anderem Scarlett Johansson, Taylor Swift und Gal Gadot losgetreten hatte. Das entsprechende Reddit-Forum hat mittlerweile knapp 30.000 Abonnenten, die auf neue Videos und Gifs warten. Oder selbst welche erstellen und mit anderen teilen – was in diesem Fall zwar unrechtmäßig ist, in der Praxis aber schwer zu verfolgen. Doch zu den rechtlichen Aspekten später mehr. 

Das Phänomen, ein Gesicht mithilfe von Software mit einem anderen auszutauschen, ist nicht neu. Gefälschte Promi-Pornos gibt es seit Jahrzehnten und mit dem sogenannten face swapping haben sowohl Plattformen wie Yahoo als auch Apps wie Snapchat dasselbe Prinzip in ihre Dienste integriert – weniger, um damit möglichst realistische Fakes zu erstellen, sondern in erster Linie als Gag: Je absurder der swap, desto besser das Meme.

Mit neuronalen Netzwerken zu besseren Fakes

Neu ist die Technik, die mittlerweile eingesetzt wird. Ist das swapping bei Fotos noch vergleichsweise einfach, wirkt es in Videos häufig krude. Das ändert sich jetzt. Das Forschungsprojekt Face2Face etwa erlaubt, in Echtzeit die Mimik und Bewegungen eines aufgenommenen Gesichts auf das eines Menschen ein einem Video zu übertragen. Experten des Chipherstellers Nvidia können mittlerweile Winteraufnahmen zu Sommeraufnahmen machen und eine dritte Software versucht, den "fotografischen Blick" zu lernen.

Möglich machen all das Entwicklungen im Bereich der künstlichen Intelligenz, genauer gesagt Deep Neural Networks. Diese neuronalen Netzwerke (deren Funktionsweise wir hier ausführlicher erklären) werden mit großen Datenmengen trainiert und können anschließend selbstständig neue Verknüpfungen erstellen. Sie sind deshalb vielfältig einsetzbar, was nun – nicht wirklich überraschend – die Porno-Enthusiasten entdeckt haben.

Im Gespräch mit dem Onlinemagazin Motherboard erklärte der Nutzer namens Deepfakes im Dezember, wie einfach es sei, einen halbwegs ansehnlichen Face Swap hinzubekommen. Er hat inzwischen eine eigenständige Anwendung namens FakeApp entwickelt, mit der auch andere Nutzer Videos verändern können, ohne großes Vorwissen zu haben. FakeApp basiert auf Software, die gratis verfügbar ist; Google etwa bietet mit TensorFlow ein neuronales Netzwerk an, das auch die psychedelischen Bilder von DeepDream hervorgebracht hat.

Zwischen Zombie und Hollywood

Um eine kurze Szene mithilfe von FakeApp zu fälschen, benötige es mindestens 400 bis 500 Bilder der "Zielperson", sagt der Entwickler. Je mehr Fotos, je schärfer diese sind und aus je mehr Blickwinkeln, desto besser. Auch sollten die Personen, deren Gesichter getauscht werden, sich einigermaßen ähnlich sehen. Zwischen sechs und zwölf Stunden wird das neuronale Netzwerk dann trainiert, bevor das Ergebnis fertig ist: In diesem Fall animierte Gifs, die bloß einige Sekunden lang sind. Komplette Szenen oder gar ganze Filme benötigen noch einmal deutlich mehr Input und Training: Zu viele Bewegungen und Einstellungen überfordern die Algorithmen derzeit noch.

So soll es nicht aussehen ... © Screenshot

Überhaupt sind viele der auf Reddit vorgestellten Experimente, sowohl zu Porno- als auch zu Parodiezwecken, mehr gruselig denn sexy. Von über dem Kopf fliegenden Augenbrauen bis hin zu entstellten Gesichtern ist alles dabei. Aber es gibt auch Versuche, die erstaunlich echt wirken oder zumindest mit leicht zusammengekniffen Augen eine Illusion aufrechterhalten könnten. In einem Versuch hat Deepfakes eine Szene aus Star Wars: Rogue One mit Prinzessin Leia neu erstellt. Das Ergebnis ist nicht viel schlechter als das Original, das aus den Computern der Special-Effects-Abteilung in Hollywood stammt.

Deepfakes will seine Software in den kommenden Wochen verfeinern. "Nutzer sollen ein Video auf ihrem Computer auswählen können, ein neuronales Netzwerk mit einem Gesicht aus einer Datenbank drüber laufen lassen und dann ein neues Video mit getauschten Gesichtern herausbekommen", sagte der anonyme Entwickler Journalisten von Motherboard.

Selfies sind eine gute Quelle

Derzeit geht es noch vor allem um Promi-Fakes. Doch weitere Anwendungsfälle dürften bald folgen: "Kann ich damit auch meinen Schwarm in einen Porno schneiden", fragt ein, vermutlich männlicher, Nutzer im Deepfakes-Forum. "Darum geht es doch letztendlich", antwortet ihm ein anderer. Man müsse eben nur genug Material haben, um den Algorithmus zu trainieren.

Das gibt es inzwischen genug. Nimmt man zu Fotodiensten wie Google Photos noch Plattformen wie Instagram, Facebook und Twitter dazu, fallen Milliarden an Selfies pro Jahr an. Die fotografische Präsenz in den sozialen Netzwerken, dank Snapchat oder Features wie den Instagram Stories zunehmend auch in Form von Videos, bringt riesige Datenmengen hervor – und damit auch neues Missbrauchspotenzial.

In den vergangenen Jahren standen zudem häufig sogenannte Rachepornos im Mittelpunkt: Nacktbilder oder Videos, die ursprünglich zwischen zwei Menschen geteilt wurden, aber schließlich, etwa nach einer Trennung oder aufgrund von Hackerangriffen, im Internet landeten. Bekannt wurden vor allem die Fälle, in denen das bekannte Persönlichkeiten wie Jennifer Lawrence betraf, doch außerhalb der Öffentlichkeit sind davon deutlich mehr Menschen betroffen. Eine Umfrage des Instituts Data & Society kam 2016 zu dem Ergebnis, dass einer von 25 amerikanischen Internetnutzern schon einmal erlebt hatte, dass private Fotos ohne Erlaubnis verbreitet wurden oder dies zumindest angedroht wurde. Vor allem Frauen unter 30 Jahren sind betroffen.

Wer Pornos fälscht, macht sich strafbar

Nimmt man alles zusammen – die zahlreichen Foto- und Videoquellen, das Potenzial für Missbrauch und die technischen Entwicklungen – dann ist der Weg vom Rache- zum Fake-Porno nicht weit. Für die Betroffenen dürfte es dabei keine Rolle spielen, dass es sich eigentlich um Fälschungen handelt. Denn je besser die Software wird, desto schwieriger wird es, das zu erkennen.

Aus juristischer Sicht ist die Sache jedenfalls klar: "Solche Videos verletzen einerseits das Recht am eigenen Bild", sagt der Rechtsanwalt für Medienrecht, David Geßner, im Gespräch mit ZEIT ONLINE. "Dabei spielt es auch keine Rolle, ob die Ausgangsbilder in einer Form bereits öffentlich zugänglich waren oder nicht." Andererseits handelt es sich auch um eine Verletzung der persönlichen Ehre als Teil des allgemeinen Persönlichkeitsrechts: "In diesem Kontext könnte man vermutlich auch von einer Sexualbeleidigung sprechen", sagt Geßner.

Die Opfer von Fake-Pornos können ebenso wie die Opfer von Rachepornos strafrechtlich gegen die Täter vorgehen und auch zivilrechtliche Ansprüche stellen, vom Unterlassungsanspruch bis hin zu Schadensersatzzahlungen. Und das nicht nur an die Personen, die es veröffentlicht haben, sondern prinzipiell an alle, die es weiterverbreiten. Gleichzeitig weiß der Berliner Medienanwalt, wie schwer es ist, die Inhalte wieder aus dem Netz zu bekommen. "Wenn man nicht sofort reagiert, verbreiten sich die Inhalte schnell in alle Ecken, bis man auch an die Provider nicht mehr herankommt", sagt Geßner. Das könne vor allem für Privatpersonen fatal sein: "Bei Promis vermutet man noch eher, dass sie einen Porno nicht gedreht haben. Für alle anderen ist der Eingriff noch einmal drastischer."

Alles wird gefälscht

Pornografie mag einmal mehr der Katalysator für eine neue Technik sein und FakeApp die Spielerei eines Enthusiasten. Doch die Implikationen von maschinellem Lernen, neuronalen Netzwerken und künstlicher Intelligenz sind weit größer, wenn es um gefälschte Inhalte geht. Nach der Schrift und dem Foto muss im Zeitalter von Fake News und "alternativen Fakten" immer häufiger auch die Authentizität von Ton- und Videoaufzeichnungen hinterfragt werden.

Die Zeiten, in denen die Handmittel dafür nur Experten zugänglich waren, sind vorbei. Ähnlich wie Photoshop die Bildbearbeitung – und damit die Bildmanipulation – demokratisierte, könnten Algorithmen die Fälschung von Videos und Ton jedem ermöglichen, der einen einigermaßen aktuellen Computer und ein wenig Softwareverständnis hat.

Der Rechtsanwalt David Geßner konnte in den vergangenen Jahren bereits zunehmend Fälle von Rachepornos und Intimsphäreverletzungen durch verschmähte Ex-Partner beobachten. Er kann sich vorstellen, dass künftige Entwicklungen, sowohl in den sozialen Netzwerken als auch in Sachen künstlicher Intelligenz, für weitere Probleme sorgen werden. Da man die Technik nicht unterbinden kann, sei vor allem der Gesetzgeber gefordert. "Wenn es um Persönlichkeitsrechtsverletzungen geht, hängt die Rechtsprechung den Entwicklungen des Internets meilenweit hinterher", sagt Geßner, "wir müssen Maßnahmen zur schnelleren Verfolgung von Tätern und direkten Auskunftsansprüchen bei den Providern finden."

Für den Nutzer Deepfakes dagegen hat die Debatte eine gute Seite: "Es kann nicht schaden, wenn sich auch der durchschnittliche Bürger mit maschinellem Lernen beschäftigt", sagt er abschließend im Gespräch mit Motherboard. Auch die tollste Technik könne stets aus niederen Beweggründen eingesetzt werden und Diskussionen könnten nicht schaden. Von Respekt gegenüber den Prominenten und Darstellerinnen, die durch seine App zweckentfremdet und ihrem Persönlichkeitsrecht verletzt wurden, will er nichts wissen.