Ob im Park, an der U-Bahn-Station oder am Bahnhof: An vielen öffentlichen Orten stehen heute Kameras. Bisher brauchte es Menschen, um die Bilder auszuwerten. Mit Gesichtserkennungssystemen ist es hingegen möglich, Aufnahmen automatisiert zu verarbeiten und einzelne Personen zu identifizieren. Florian Gallwitz ist Professor für Medieninformatik an der Technischen Hochschule in Nürnberg und forscht unter anderem zur automatischen Verarbeitung von Bildern. ZEIT ONLINE hat mit ihm gesprochen.

ZEIT ONLINE: Herr Gallwitz, durch Gesichtserkennung wird es möglich, Menschen in öffentlichen Räumen zu identifizieren. Das zeigt nun eindrücklich eine Recherche der New York Times: Die Reporter haben Bilder einer öffentlichen Überwachungskamera mit einer Gesichtserkennungssoftware ausgewertet und konnten damit einzelne Personen identifizieren. Müssen wir Angst um unsere Privatsphäre haben?

Florian Gallwitz: Das kann ich so pauschal nicht beantworten. Gesichtserkennung wird gerade zugleich über- und unterschätzt. Tatsächlich erkennen manche Systeme Gesichter mittlerweile besser als der Mensch, das beunruhigt mich. Andererseits täuschen manche Testergebnisse darüber hinweg, dass die Systeme noch nicht sonderlich genau sind. Auch an der New-York-Times-Geschichte habe ich Zweifel.

ZEIT ONLINE: Die Reporter haben die Websites von Unternehmen rund um den Bryant Park aufgerufen und nach Mitarbeiterfotos durchforstet. Die haben sie dann in ein Gesichtserkennungssystem von Amazon gegeben. Das hat die Aufnahmen von Überwachungskameras ausgewertet und sie mit den Mitarbeiterfotos abgeglichen. In mindestens einem Fall hat das geklappt.

Florian Gallwitz ist Professor für Medieninformatik an der Technischen Hochschule Nürnberg und forscht unter anderem zu Mustererkennung. © privat

Gallwitz: Genau. Aber mehrere Variablen dieser Untersuchung sind unbekannt. So steht im Text nicht, mit wie vielen Mitarbeiterfotos das System gefüttert wurde, also nach wie vielen Menschen es quasi suchen sollte. Wir wissen auch nicht, wie viele der gesuchten Personen tatsächlich durch den Park gelaufen sind. Vielleicht liefen ja Hunderte der gesuchten Mitarbeiterinnen und Mitarbeiter durch den Park, das System identifizierte aber nur eine Person korrekt. Oder das System erkannte jemanden als Mitarbeiter, der aber gar keiner war. In der Wissenschaft nennt man das false-positive. Der Test der New York Times ist ein guter Weg, um die Öffentlichkeit auf Probleme der Gesichtserkennung aufmerksam zu machen. Aus wissenschaftlicher Sicht ist er aber nicht belastbar. Mit der heutigen Technik sind wir noch meilenweit davon entfernt, automatisch jede einzelne Person nur per Gesichtserkennung tracken zu können.

ZEIT ONLINE: Trotzdem ist zumindest ein Ergebnis der Recherche faszinierend: Der Mann, den die New York Times identifizieren konnte, ist auf der Überwachungskamera nur von oben und schräg von der Seite zu sehen. Das System erkannte ihn dennoch. Ist das nicht ein Fortschritt?

Gallwitz: Das ist auf jeden Fall beeindruckend. Die Gesichtserkennungssysteme funktionierten bis vor ein paar Jahren nur gut, wenn Menschen zentral in die Kamera guckten. Das zeigt, dass Amazon sein System auf ein großes Spektrum von Winkeln trainiert hat. Ein neuronales Netz übt ja mit Millionen von Bildern und Gesichtern. Erst durch verschiedene Ausschnitte lernt es aber die Geometrie und die Rotationen eines Kopfes kennen.

ZEIT ONLINE: Es scheint so, als würden auch andere Probleme von Gesichtserkennungssoftware gelöst. Die Bundespolizei startete am Berliner Südkreuz im August 2017 einen einjährigen Versuch mit einem System, das auch Gesichter von Menschen erkennen konnte, die eine Brille oder einen Schal trugen. Personen zu identifizieren, deren Gesicht halb verdeckt ist, galt auch lange als schwierig.

Je stärker jemand sein Gesicht verdeckt, desto geringer die Wahrscheinlichkeit, dass eine Software eine Person erkennt.
Florian Gallwitz, Professor für Medieninformatik

Gallwitz: Der Eindruck, dass diese Probleme gelöst seien, täuscht. Bei Brillenträgern mag man mittlerweile so weit sein, dass ein System die Menschen erkennt. Brillen verdecken das Gesicht aber auch nicht so sehr. Schwierig ist es immer noch mit Sonnenbrillen oder eben Schals. Je stärker jemand sein Gesicht verdeckt, desto geringer wird die Wahrscheinlichkeit, dass eine Software eine Person erkennt. Das ist ja bei uns Menschen nicht anders: Wir erkennen jemanden ja auch kaum, wenn das halbe Gesicht verborgen ist.

ZEIT ONLINE: Das heißt, wenn man nicht erkannt werden will, kann man sich aktuell noch ganz gut mit einem Schal oder einer Sonnenbrille schützen?

Gallwitz: Ja, und nicht nur damit. Am Berliner Südkreuz sind die Kameras oberhalb des Eingangsbereichs angebracht. Wenn Sie sich da die Mütze ins Gesicht ziehen und auf das Smartphone gucken, dann würde das System Sie wahrscheinlich schon nicht mehr erkennen.