Noch vor drei Jahrzehnten galt die Videoüberwachung als Orwellsche Dystopie. Heute ist sie in U-Bahnen, Einkaufszentren oder öffentlichen Gebäuden Alltag. Zwar hängen in Deutschland noch nicht so viele Kameras wie beim Spitzenreiter Großbritannien, wo schätzungsweise fünf Millionen Stück die Schritte der Bürger verfolgen. Doch nun folgt die nächste Stufe: Am Berliner S-Bahnhof Südkreuz wird seit Juli die Gesichtserkennung via Videoaufzeichnung getestet.

Wenn es in europäischen Städten inzwischen beinahe im Monatsrhythmus zu Terroranschlägen kommt, ist die Versuchung groß, potenziellen "Gefährdern" bei ihren Bewegungen im öffentlichen Raum noch dichter auf der Spur sein zu wollen, als dies die Handyüberwachung erlaubt. Die elektronische Gesichtserkennung soll das möglich machen. Sie ist in den vergangenen 25 Jahren immer besser geworden. Von der Analyse mittels "Eigengesichtern" in den frühen neunziger Jahren über den 2001 vorgestellten Algorithmus von Paul Viola und Michael Jones bis zur DeepFace-Technologie von Facebook hat sich die Trefferquote auf 97,25 Prozent erhöht. Zum Vergleich: Menschen erkennen Gesichter im Durchschnitt mit einer Genauigkeit von 97,64 Prozent wieder. Die meisten der technischen Verfahren versuchen, charakteristische Gesichtsteile wie Augen, Nase und Mund zu identifizieren. Dafür analysieren sie die Gesichter Pixel für Pixel auf Helligkeitsunterschiede. Die Augen etwa sind in der Regel dunkler als der dazwischenliegende Nasenrücken.

Der US-Informatiker und Künstler Adam Harvey hat einen Schutz gegen die meistverwendete Technik, die von Viola und Jones, entwickelt: CV Dazzle. Harvey hat Frisuren und Make-up ausgetüftelt, an denen das Programm scheitert: Haarsträhnen, die eine Augenpartie bedecken, sowie aufgeschminkte Rechtecke oder Dreiecke in Schwarz, Weiß oder Rot verschleiern erfolgreich die Gesichtszüge und erschweren die Analyse.

In obskuren Musikclubs würden diese Make-ups wohl als der letzte Schrei der Popkultur durchgehen. Im Alltag sind sie leider schreiend auffällig. Eine subtilere Abwehr haben Forscher der Carnegie Mellon University entdeckt: Brillengestelle in Naturhornoptik. Bei 19 von 20 Testgesichtern aus einer Datenbank konnten die Brillen tragenden Gesichter nicht mehr der richtigen Person zugeordnet werden. Mehr noch: Mit einem passend ausgetüftelten Muster wurde ein Testgesicht für die Schauspielerin Milla Jovovich gehalten – obwohl es sich um einen Mann handelte.

Dieser Text stammt aus dem ZEIT WISSEN Magazin 6/17.

Aber es geht noch einfacher. Der Chicagoer Optiker Scott Urban hat Brillengestelle mit einer reflektierenden Schicht versehen, die Infrarotlicht wieder zurückwirft. Überwachungskameras in dunklen Winkeln nutzen das Licht, um die Szenerie auszuleuchten. Reflektieren die Brillen es, erzeugen sie so auf dem Kamerabild einen gleißenden Schein, der das Gesicht überdeckt. Wo nicht ausgeleuchtet wird, kann eine Idee des japanischen Ingenieurs Isao Echizen helfen. Sein Brillengestell hat selbst Leuchtdioden, deren Infrarotlicht das Gesicht auf dem Kamerabild ebenfalls überdeckt.

Gewinnen werden diese Erfinder und Privacy-Aktivisten das Wettrüsten aber nicht. Die Algorithmen werden immer besser, die Gesichtsdatenbanken immer voller. Schon gibt es Ansätze, selbst mit Tuch und Sonnenbrille vermummte Gesichter zu identifizieren. Und wer, etwa an einem Grenzübergang, dem Auge des Gesetzes gegenübersteht, muss sich eh zeigen. Brillen, Hüte, wilde Make-ups und andere Dinge im Gesicht sind da alle nicht erlaubt.

Die Quellenangaben zum ZEIT-Wissen-Artikel finden Sie hier.