Die unsichtbare Maske – Seite 1

Die Corona-Pandemie ist keine gute Zeit für die Spione bei Polizei, Geheimdiensten und Privatfirmen, die sich auf Gesichtserkennungsalgorithmen verlassen. Menschen, die sich maskiert in der Öffentlichkeit bewegen, sind von solchen Algorithmen praktisch nicht zu identifizieren. Nicht einmal Smartphones erkennen ihre Besitzer. Die müssen wie früher ihren PIN-Code eingeben, um das Handy zu entsperren.

Der Mund-Nasen-Schutz wurde in diesem Jahr somit zufällig zu einem ebenso einfachen wie effektiven Mittel gegen Gesichtserkennung. Doch die Pandemie wird irgendwann zu Ende sein, Gesichtserkennung wird bleiben. Die umstrittenen Algorithmen finden immer weitere Verbreitung, wir sind ständig von neugierigen Kameras umgeben. Nicht nur staatliche Behörden sammeln Fotos von Bürgern in großen Datenbanken, auch private Unternehmen saugen Nutzerbilder aus den sozialen Medien ab, etwa die US-Firma Clearview, die drei Milliarden mit Namen versehene Fotos gesammelt hat und damit ihre Algorithmen trainiert. Ihre Dienste bietet sie unter anderem den US-amerikanischen Polizeibehörden an.

Aktivisten und Aktivistinnen haben sich schon einiges einfallen lassen, um die Gesichtserkennungssysteme zu foppen: Sie tragen in der Öffentlichkeit Masken mit Fotos anderer Personen, tragen hässliche Pullover mit flimmernden Mustern, auf denen die Algorithmen dann fälschlich Gesichter erkennen, oder kleben sich Ornamente aus Schmucksteinen ins Gesicht, die ebenfalls die Algorithmen verwirren. Oder sie setzen gleich eine Maske des legendären englischen Widerständlers Guy Fawkes auf.

"Datenvergiftung" gegen Gesichtserkennung

"Diese Verkleidungen schützen dich nur dann, wenn du sie tatsächlich trägst", sagt der Informatikprofessor Ben Zhao von der University of Chicago. "Wir wollen dagegen die Computermodelle korrumpieren, die Gesichter erkennen. Und wenn man das richtig anstellt, dann muss man das nur einmal tun und ist für alle Zukunft sicher."

Zhao hat mit seinen Mitarbeitern und Mitarbeiterinnen einen Algorithmus namens Fawkes entwickelt, der Gesichtserkennungssoftware in die Irre führen soll. Das Verfahren ist eine Form von "Datenvergiftung": Um sich zu schützen, muss man alle Bilder, die man von sich online stellt, vorher mit dem Programm auf dem PC durch den Algorithmus schicken. Der Algorithmus von Fawkes verändert die Fotos auf subtile Weise. Das menschliche Auge erkennt kaum einen Unterschied, aber für den Computer sieht das Gesicht völlig anders aus.

Um zu verstehen, wie das funktioniert, muss man ein wenig über sogenanntes Deep Learning und die neuronalen Netze wissen, die hinter allen Gesichtserkennungsalgorithmen stecken. Diese Netze lernen aus sehr vielen Beispielen, Menschen oder andere Objekte auf Fotos zu erkennen. Sie bestehen aus mehreren Schichten künstlicher Neuronen, die zunächst nur zufällig miteinander verknüpft sind. Im Verlauf des Lernprozesses spezialisieren sich manche dieser Neuronen darauf, gewisse Merkmale in den Bildern zu identifizieren.

Das tun auch Menschen: Wir sind sehr gut darin, Gesichter zu erkennen, und auch wir suchen auf Fotos nach Merkmalen wie den Augen, der Nase, dem Mund, den Augenbrauen. Der Unterschied, den Fawkes ausnutzt: Die Merkmale, die das neuronale Netz herausbildet, sind andere als unsere. Es sind Strukturen in den Pixeln eines Bildes, die für uns keine Bedeutung haben. Und das kann man ausnutzen, um Fotos auf eine Weise zu verändern, die für den Computer dramatisch ist, aber für den Menschen kaum wahrnehmbar.

Ein bisschen Gwyneth Paltrow steckt in jedem Foto

Die Algorithmen zur Gesichtserkennung lokalisieren die entsprechenden Merkmale in einem Foto, verordnen sie als Koordinaten in einem hochdimensionalen Raum und fassen ähnliche Bilder zu einem Cluster zusammen. Kommt nun ein neues Foto eines Menschen dazu, dessen Gesichtsmerkmale zu den Koordinaten dieses Clusters passen, dann wird es als ein Foto dieser Person identifiziert – die Gesichtserkennung war erfolgreich.

Fawkes "vermischt" das Originalfoto mit einem Bild aus seiner Datenbank, zum Beispiel einem Porträt von Brad Pitt oder auch einem künstlich erzeugten Gesicht. Das menschliche Auge sieht immer noch die Person, aber der Computer sieht Brad Pitt (oder eine Mischung aus beiden) – die automatisierte Gesichtserkennung funktioniert nicht mehr.

So stellen sich die Entwickler die Anwendung ihres Tools vor:  "Sagen wir, eine Firma wie Clearview hat schon 100 Bilder von dir aus dem Internet geladen und die mit dem Label Christoph versehen", erklärt Ben Zhao. Nun muss man das System mit immer neuen Bildern überfluten, die mithilfe von Fawkes getarnt sind. Die landen alle an einem anderen Ort im Koordinatensystem. Irgendwann sei das Modell total verwirrt, sagt Zhao: "Es hat 100 Fotos von Christoph an einem Ort und 200 an einem anderen, und irgendwann verschiebt es die Definition von Christoph hin zu der neuen Mehrheit." Die Folge: Taucht nun ein neues, nicht getarntes Foto von Christoph auf, etwa von einer Überwachungskamera, dann kann das System ihn nicht mehr identifizieren.

Funktioniert das wirklich? Die New York Times fragte direkt bei Clearview nach. Der Chef der Firma, Hoan Ton-That, behauptet, sein System sei gegen die subtilen Veränderungen durch Fawkes immun. Im Gegenteil, man könne die Tarnsoftware dazu nutzen, das eigene System robuster zu machen. Und außerdem sei die Gesichtserkennung längst zu weit verbreitet: "In der Praxis ist es mit ziemlicher Sicherheit zu spät, eine Technik wie Fawkes zu perfektionieren und massenhaft zu installieren."

Gesichtserkenner sehen keine Bedrohung

Auf dieses Zitat angesprochen, zuckt Ben Zhao die Schultern. Zhao hält sein System, dessen Code im Internet frei verfügbar ist, für wasserdicht, weil es eine grundlegende Schwäche der neuronalen Netze ausnutze. "Wenn sie Fawkes wirklich knacken, haben sie ein unüberwindbar erscheinendes Problem beim Deep Learning gelöst", sagt Zhao.

Doch selbst wenn Fawkes wirklich so effektiv schützt, wie die Erfinder behaupten, könnten die Gesichtserkenner vermutlich weiterhin gut schlafen. Die Erfahrung mit anderen Datenschutzanwendungen, etwa E-Mail-Verschlüsselung oder Zwei-Faktor-Authentifizierung, zeigt: Selbst datenschutzbewusste Menschen setzen die Methoden nicht ein, wenn ihre Anwendung umständlich ist und sie sich jedes Mal aufs Neue dafür entscheiden müssen.

Zhao sieht letztlich zwei Möglichkeiten, wie man Fawkes massenwirksam einsetzen kann: Entweder ein soziales Netzwerk wie Facebook bietet das Tarnverfahren als Option beim Hochladen von Bildern an. Oder die Nutzer verwenden ein Browser-Plug-in, das bei jedem Fotoupload nachfragt, ob man Fawkes verwenden will. Persönlich bevorzugt er die zweite Variante, weil er den großen Firmen nicht vertraut.

Derzeit kämpft das System noch mit einigen Kinderkrankheiten. So hat es in der Anfangsphase dazu tendiert, Frauen plötzlich einen Schnurrbart zu verpassen und generell eine Art Geschlechtsumwandlung bei den Nutzern vorzunehmen. Das will man nun abgestellt haben. Aber bei manchen Bildern sehen die Gesichter selbst auf der niedrigsten Tarnstufe immer noch aus, als würde die Person unter einer Hautkrankheit leiden oder wäre gerade in eine Schlägerei verwickelt worden – auch eine Art der Tarnung, die so aber sicherlich nicht gewollt ist.