Facebook hat einen Plan gegen sogenannte Rachepornos, und der geht so: Schicken Sie alle Nacktbilder, die Ihre (Ex-)Partner von Ihnen haben und die niemals jemand anderes sehen soll, einfach an Facebook.

Derart zugespitzt klingt das natürlich nach einer eher idiotischen Idee. Aber auf den zweiten Blick ist sie gar nicht mal schlecht, jedenfalls theoretisch. Was Facebook zunächst einmal in Australien und anschließend auch in den USA, Großbritannien und Kanada testen will, ist ein Verfahren, das so ähnlich seit Jahren im Kampf gegen Kindesmissbrauch zum Einsatz kommt.

In dem Pilotprojekt müssen sich Betroffene zunächst an eine Einrichtung der australischen Regierung wenden, den E-Safety-Commissioner, und ihr Anliegen in einem Onlineformular beschreiben. Dann sollen sie die fraglichen Bilder per Facebook-Messenger an sich selbst schicken, sodass sie einmal mit Facebooks Servern in Berührung kommen.

Ein Mitarbeiter bekommt die Bilder zu sehen

Die Übertragung kann nicht Ende-zu-Ende-verschlüsselt sein, auch wenn der Messenger das prinzipiell möglich macht, denn dann könnte das Unternehmen sie nicht einsehen und bearbeiten. Die stets aktive Transportverschlüsselung im Messenger soll aber zumindest sicherstellen, dass kein Unbefugter die Dateien abfangen und einsehen kann.

Nachdem der (in diesem Fall die) Regierungsbeauftragte Facebook über den jeweiligen Fall informiert hat, nimmt sich das Unternehmen der Bilder an.

So sieht ein Nacktfoto aus: 48008908c31bf2a4a283f29c15309b1

An dieser Stelle bekommt tatsächlich ein speziell geschulter Facebook-Mitarbeiter das Material zu sehen. Menschen, die Angst haben, Opfer von Rachepornos zu werden, müssen also für sich entscheiden, ob sie damit leben können. Der Mitarbeiter prüft, ob es sich wirklich um Bilder handelt, mit denen jemand bloßgestellt werden könnte, und erstellt dann einen Hash daraus, eine Art digitales Wasserzeichen. Was von einem solchen Bild übrig bleibt, sieht dann ungefähr so aus: 48008908c31b9c8f8ba6bf2a4a283f29c15309b1.

Versucht nun jemand anderes, das gleiche Bild hochzuladen, wird es von Facebooks Algorithmen mit den hinterlegten Hashes abgeglichen. Stimmt der Wert überein, wird das Bild abgelehnt, und zwar auf Facebook, Instagram und im Messenger. Außerhalb des Facebook-Ökosystems könnte es aber natürlich verbreitet werden.

Das Originalbild wird – verpixelt – noch "für kurze Zeit gespeichert", um sicherzugehen, dass der Vergleich des Hashes mit neu hochgeladenen Bildern wirklich funktioniert. Dann wird es gelöscht und nur der Hash verbleibt bei Facebook, wie das Unternehmen mitteilt.

Das Verfahren ist eine Weiterentwicklung jener Bilderkennung, die Facebook im April erwähnt hatte, als es sein Vorgehen gegen die strafbare Verbreitung von Nacktbildern bekannt gab.

Handlungsbedarf gibt es durchaus. Rund vier Prozent aller Internetnutzerinnen in den USA sind schon einmal Opfer gewesen, heißt es in dieser Studie von 2016 – jemand hatte intime Bilder gegen ihren Willen verbreitet. Bei den Frauen unter 30 Jahren waren es sogar zehn Prozent. Aus Australien gibt es noch erschreckendere Zahlen.

Bilderkennungssysteme lassen sich austricksen

Unklar ist fürs Erste, wie resistent die Technik gegen subtile Bildmanipulationen ist. In der KI-Forschung ist es geradezu eine Sportart geworden, Bilderkennungssysteme wie die von Google auf diese Weise zu überlisten, sodass sie zum Beispiel eine Schildkröte für eine Waffe halten. Nötig sind dafür oft nur subtile Änderungen am Bild, die ein Mensch nicht bemerken würde. Dafür ist allerdings Spezialwissen nötig, das ein rachsüchtiger Ex-Partner in der Regel nicht haben dürfte.

Veränderungen wie ein neuer Zuschnitt oder eine Verkleinerung des Bildes jedenfalls reichen nicht, um den Hashwert eines Bildes zu verändern. Damit ließe sich Facebooks System also mit einiger Sicherheit nicht umgehen.

Update vom 10.11.: Facebook hat weitere Details zu dem Projekt genannt. Wir haben sie in diesem Artikel zusammengefasst.