Derzeit geht es noch vor allem um Promi-Fakes. Doch weitere Anwendungsfälle dürften bald folgen: "Kann ich damit auch meinen Schwarm in einen Porno schneiden", fragt ein, vermutlich männlicher, Nutzer im Deepfakes-Forum. "Darum geht es doch letztendlich", antwortet ihm ein anderer. Man müsse eben nur genug Material haben, um den Algorithmus zu trainieren.

Das gibt es inzwischen genug. Nimmt man zu Fotodiensten wie Google Photos noch Plattformen wie Instagram, Facebook und Twitter dazu, fallen Milliarden an Selfies pro Jahr an. Die fotografische Präsenz in den sozialen Netzwerken, dank Snapchat oder Features wie den Instagram Stories zunehmend auch in Form von Videos, bringt riesige Datenmengen hervor – und damit auch neues Missbrauchspotenzial.

In den vergangenen Jahren standen zudem häufig sogenannte Rachepornos im Mittelpunkt: Nacktbilder oder Videos, die ursprünglich zwischen zwei Menschen geteilt wurden, aber schließlich, etwa nach einer Trennung oder aufgrund von Hackerangriffen, im Internet landeten. Bekannt wurden vor allem die Fälle, in denen das bekannte Persönlichkeiten wie Jennifer Lawrence betraf, doch außerhalb der Öffentlichkeit sind davon deutlich mehr Menschen betroffen. Eine Umfrage des Instituts Data & Society kam 2016 zu dem Ergebnis, dass einer von 25 amerikanischen Internetnutzern schon einmal erlebt hatte, dass private Fotos ohne Erlaubnis verbreitet wurden oder dies zumindest angedroht wurde. Vor allem Frauen unter 30 Jahren sind betroffen.

Wer Pornos fälscht, macht sich strafbar

Nimmt man alles zusammen – die zahlreichen Foto- und Videoquellen, das Potenzial für Missbrauch und die technischen Entwicklungen – dann ist der Weg vom Rache- zum Fake-Porno nicht weit. Für die Betroffenen dürfte es dabei keine Rolle spielen, dass es sich eigentlich um Fälschungen handelt. Denn je besser die Software wird, desto schwieriger wird es, das zu erkennen.

Aus juristischer Sicht ist die Sache jedenfalls klar: "Solche Videos verletzen einerseits das Recht am eigenen Bild", sagt der Rechtsanwalt für Medienrecht, David Geßner, im Gespräch mit ZEIT ONLINE. "Dabei spielt es auch keine Rolle, ob die Ausgangsbilder in einer Form bereits öffentlich zugänglich waren oder nicht." Andererseits handelt es sich auch um eine Verletzung der persönlichen Ehre als Teil des allgemeinen Persönlichkeitsrechts: "In diesem Kontext könnte man vermutlich auch von einer Sexualbeleidigung sprechen", sagt Geßner.

Die Opfer von Fake-Pornos können ebenso wie die Opfer von Rachepornos strafrechtlich gegen die Täter vorgehen und auch zivilrechtliche Ansprüche stellen, vom Unterlassungsanspruch bis hin zu Schadensersatzzahlungen. Und das nicht nur an die Personen, die es veröffentlicht haben, sondern prinzipiell an alle, die es weiterverbreiten. Gleichzeitig weiß der Berliner Medienanwalt, wie schwer es ist, die Inhalte wieder aus dem Netz zu bekommen. "Wenn man nicht sofort reagiert, verbreiten sich die Inhalte schnell in alle Ecken, bis man auch an die Provider nicht mehr herankommt", sagt Geßner. Das könne vor allem für Privatpersonen fatal sein: "Bei Promis vermutet man noch eher, dass sie einen Porno nicht gedreht haben. Für alle anderen ist der Eingriff noch einmal drastischer."

Alles wird gefälscht

Pornografie mag einmal mehr der Katalysator für eine neue Technik sein und FakeApp die Spielerei eines Enthusiasten. Doch die Implikationen von maschinellem Lernen, neuronalen Netzwerken und künstlicher Intelligenz sind weit größer, wenn es um gefälschte Inhalte geht. Nach der Schrift und dem Foto muss im Zeitalter von Fake News und "alternativen Fakten" immer häufiger auch die Authentizität von Ton- und Videoaufzeichnungen hinterfragt werden.

Die Zeiten, in denen die Handmittel dafür nur Experten zugänglich waren, sind vorbei. Ähnlich wie Photoshop die Bildbearbeitung – und damit die Bildmanipulation – demokratisierte, könnten Algorithmen die Fälschung von Videos und Ton jedem ermöglichen, der einen einigermaßen aktuellen Computer und ein wenig Softwareverständnis hat.

Der Rechtsanwalt David Geßner konnte in den vergangenen Jahren bereits zunehmend Fälle von Rachepornos und Intimsphäreverletzungen durch verschmähte Ex-Partner beobachten. Er kann sich vorstellen, dass künftige Entwicklungen, sowohl in den sozialen Netzwerken als auch in Sachen künstlicher Intelligenz, für weitere Probleme sorgen werden. Da man die Technik nicht unterbinden kann, sei vor allem der Gesetzgeber gefordert. "Wenn es um Persönlichkeitsrechtsverletzungen geht, hängt die Rechtsprechung den Entwicklungen des Internets meilenweit hinterher", sagt Geßner, "wir müssen Maßnahmen zur schnelleren Verfolgung von Tätern und direkten Auskunftsansprüchen bei den Providern finden."

Für den Nutzer Deepfakes dagegen hat die Debatte eine gute Seite: "Es kann nicht schaden, wenn sich auch der durchschnittliche Bürger mit maschinellem Lernen beschäftigt", sagt er abschließend im Gespräch mit Motherboard. Auch die tollste Technik könne stets aus niederen Beweggründen eingesetzt werden und Diskussionen könnten nicht schaden. Von Respekt gegenüber den Prominenten und Darstellerinnen, die durch seine App zweckentfremdet und ihrem Persönlichkeitsrecht verletzt wurden, will er nichts wissen.