Privatsphäre : Die Pornoindustrie experimentiert mit Gesichtserkennung

Ein beliebiges Foto von Facebook hochladen und nach Ähnlichkeiten mit Pornodarstellern suchen lassen – diesen Service bieten zwei Firmen an. Betroffene merken das nicht.

Einmal mehr treibt die Pornoindustrie die Entwicklung von Web-Technologie voran . Die Branche experimentiert mit Gesichtserkennung. So fordert die Sexplattform Naughty America ihre Kunden auf, Bilder von Frauen bei ihrem "Face" getauften Onlinedienst hochzuladen. Eine Software sucht dann in den Datenbanken von Naughty America nach Frauen, die denen auf den Fotos ähnlich sehen. Nutzer sollen ausdrücklich Fotos von Facebook , Instagram oder einer beliebigen Website hochladen.

Auch das Unternehmen SexFaceFinder vergleicht die von seinen Nutzern hochgeladenen Fotos mit denen in einer Datenbank – und zwar der eines Webcam-Dienstes, wie ZDNet schreibt . Beiden Anbietern geht es offiziell darum, dass Männer auf diesem Wege Pornodarstellerinnen finden sollen, die ihren Vorlieben und Fantasien möglichst gut entsprechen. Dagegen ist prinzipiell wenig einzuwenden.

Zudem ist die Technik noch nicht ausgereift. Das Ausgangsbild und das, was Naughty Americas Gesichtserkennung dann an Darstellerinnen mit angeblichen Ähnlichkeiten auswirft, stimmen nicht überein. Im Gegenteil: Was Naughty America anbietet, wirkt wie eine willkürliche Auswahl der eigenen Pornostars. Allerdings fragt der Anbieter nach: "Bist du zufrieden mit dem Resultat?" Die Funktion soll also offenbar verbessert werden.

Problematisch an einer Gesichtserkennung auf Pornoseiten sind aber schon jetzt mögliche Verletzungen der Privatsphäre. Wer bei Naughty America ein Bild hochladen will, muss zwar per Checkbox versichern, dass er "das Recht hat, dieses Bild zu verteilen". Aber davon dürfte sich niemand abschrecken lassen, der eben gezielt fremde Fotos aussucht. Unklar ist, was Naughty America mit den Bildern macht. Laut Nutzungsbedingungen behält sich das Unternehmen die Weiterverwertung zu allen erdenklichen Zwecken vor. Jeder, von dem es ein Foto im Netz gibt, kann auf diesem Wege also in der Datenbank des Pornoanbieters landen – ohne je davon zu erfahren.

Auch Seitensprungportale könnten so durchsucht werden

Noch bedenklicher wird es, wenn ein Anbieter diese Technik einsetzt, um eine Datenbank zu durchsuchen, die von den Nutzern selbst gefüllt wurde. Naughty America arbeitet zum Beispiel mit einem Seitensprungportal zusammen. Theoretisch könnte eine Gesichtserkennung auch die Bilder solcher Portale scannen und damit zum Kontrollwerkzeug etwa für misstrauische Partner werden.

Andere Seiten sammeln Nacktbilder, die Menschen von ihren Ex-Partnern hochladen. Was also ursprünglich höchstens ein Mensch sehen sollte, könnte so für jeden auffindbar werden. Man könnte argumentieren, dass jeder, der solche Aufnahmen von sich verschickt , selbst schuld ist, wenn sie irgendwann offen im Netz kursieren. Manchen mag das auch keineswegs peinlich sein. Website-Betreiber aber könnten aus der Rückwärts-Bildersuche ein Geschäftsmodell machen, ohne das Wissen der Betroffenen.

Verlagsangebot

Hören Sie DIE ZEIT

Genießen Sie wöchentlich aktuelle ZEIT-Artikel mit ZEIT AUDIO

Hier reinhören

Kommentare

30 Kommentare Seite 1 von 3 Kommentieren

Eine Frechheit...

......von Naughty America sollte sich diese Aktion tatsächlich als Schwindel herausstellen . Die Industrie war seit dem Begin des letzten Jahrhunderts im Vorfeld der Technologie, vergleichbar nur mit Waffen und Weltraumindustrie.
Der Rufschaden für die Industrie mag so schlimm sein, dass sie sich so schnell nicht wieder erholt...

Zukünftig?

Das ist beo Google schon seit einer Weile so: bei der Bildersuche können sie längst ein Bild als Grundlage der Suche angeben. Aber es ist natürlich nochmal was anderes wenn die Suche gezielt Gesichter vergleicht - die Google-Suche liefert primär Kopien des gleichen Bildes und falls es die nicht gibt dann Bilder die ähnlich strukturiert sind (aber meist was völlig anderes zeigen).