Nils Zurawski © Paula Markert für ZEIT ONLINE

In der Bahn, auf großen Plätzen, am Flughafen: Überall im öffentlichen Raum hängen Kameras, die viele unserer Schritte aufzeichnen. Schon heute sollen die Aufnahmen bei der Aufklärung von Verbrechen helfen. In Zukunft, so zumindest stellen es sich Sicherheitsbehörden vor, sollen die Daten mithilfe von Gesichtserkennung in Echtzeit ausgewertet werden können – und vielleicht sogar Verbrechen verhindern können, bevor sie geschehen.

Aber ist das realistisch? Was kann Gesichtserkennung heute schon? Ist Sicherheit nicht ohnehin nur eine Illusion? Und wie lebt es sich in einer Welt, in der niemand mehr so richtig anonym ist? Der Soziologe Nils Zurawski beantwortet diese Fragen in einer neuen Folge des Digitalpodcasts Wird das was?. Zurawski forscht am Institut für Kriminologische Sozialforschung an der Universität Hamburg zu Überwachung und Sicherheit im öffentlichen Raum.

Die bisherigen Testergebnisse zu Gesichtserkennungssystemen in Deutschland überzeugen den Wissenschaftler nicht. Bis 2018 lief ein Pilotprojekt mit drei Systemen am Berliner Südkreuz. In 80 Prozent der Fälle erkannten sie zwar die gesuchten Zielpersonen, die sich freiwillig für das Projekt gemeldet hatten. Das sei für Gesichtserkennungssysteme aber ein eher peinlicher Wert, sagt Zurawski im Gespräch mit den ZEIT-ONLINE-Redakteuren Lisa Hegemann und Dirk Peitz. 

In einer demokratischen Gesellschaft hält der Soziologe flächendeckende Überwachung für problematisch. "Im öffentlichen Raum ist es unabdingbar, dass wir anonym sind", sagt er. Es müsse gewährleistet sein, dass eine Person nicht überall erkannt werde. 

Zumal Gesichtserkennung in autoritären Systemen auch missbraucht werden kann, um Menschen zu diskriminieren. Das zeigt sich in China: Die Regierung in Peking setzt laut einer New-York-Times-Recherche heute schon Systeme ein, die die Uiguren, eine islamische Minderheit, anhand ihres Äußeren identifizieren sollen. "Das, was da gemacht wird, ist blanker Rassismus", sagt Zurawski. Schuld sei aber nicht die Technologie: "Algorithmen sind nicht per se rassistisch." Stattdessen spiegelten die Systeme gesellschaftliche Probleme wider – etwa die uralte Vorstellung, dass bestimmte äußerliche Merkmale auf bestimmte Eigenschaften schließen lassen. Dabei ist diese Theorie nicht belegbar.

Im Digitalpodcast spricht Nils Zurawski außerdem über das Bild als Nimbus von Wahrheit und Wahrhaftigkeit, Kameras als Bestätigung bestehender Ängste und darüber, wie sich Überwachung auf eine Gesellschaft auswirken kann.

Sie erreichen uns per Mail unter wirddaswas@zeit.de.