Die Bundesregierung sieht in automatischen Gesichtserkennungssystemen einen wesentlichen Mehrwert für die künftige Arbeit der Polizei. Das ist laut Pressemitteilung das Ergebnis eines gut einjährigen Pilotprojekts am Berliner Bahnhof Südkreuz, während dessen von der Bundespolizei mehrere Systeme zur Videoüberwachung getestet wurden. Die durchschnittliche Erkennungsquote bei dem besten getesteten System habe bei 82,8 Prozent gelegen. Allerdings lag die Fehlerquote der Systeme zusammen noch bei 0,34 Prozent.

Eine Verknüpfung der beiden besten Systeme könne die Fehlerrate hingegen auf einen Wert von 0,00018 Prozent senken. Das würde laut Abschlussbericht bedeuten, dass auf einem Bahnhof mit 20 installierten Kameras und einer Benutzerfrequenz von 15.000 Personen pro Tag und Kamera im Durchschnitt 0,54 Falschtreffer an einem Tag erzeugt würden. Damit würde theoretisch jeden zweiten Tag eine Person unberechtigterweise mit einer gesuchten Person verwechselt.

Von August 2017 bis Ende Juli 2018 hatten drei Kameras in drei Bereichen des Umsteigebahnhofs Südkreuz für die Computerprogramme zur Gesichtserkennung gefilmt. 300 Testpersonen hatten sich freiwillig an dem Projekt beteiligt. Gefilmt wurden ein Ein- und Ausgang sowie eine Treppe. Mit Computern wurden die Aufnahmen mit den gespeicherten Gesichtern der Testpersonen verglichen. Diese wurde in der zweiten Testphase aus Überwachungskameras entnommen. Damit sollte überprüft werden, ob "praxisnahe Gesichtsbilder", also übliche Fahndungsfotos, dafür geeignet sind.

Tagsüber hohe Fehlerquote

Bei dem Test wurden drei verschiedene Systeme der Firmen Herta, Anyvision und Idemia eingesetzt. Die Daten der handelsüblichen Videokameras mit einer Auflösung von 1.920 mal 1.080 Pixeln wurden auf einen jeweils eigenen Server geleitet und ausgewertet. In einem Raum der Bundespolizei befanden sich lediglich drei Laptops mit den Clients für die Programme.

Die Auswertung ergab unter anderem, dass die Kamera an der Rolltreppe tagsüber eine deutlich höhere Fehlerrate aufwies. Das führten die Tester auf schwierige Lichtverhältnisse zurück. Eines der Systeme erzielte zudem eine deutlich niedrigere Fehlerrate. Allerdings war die Trefferrate in Testphase zwei mit 31,2 Prozent deutlich niedriger als bei den beiden anderen Systemen, die 76,2 und 82,8 Prozent aufwiesen.

Dem Bericht zufolge könnten die beiden besten Systeme im Oder- sowie im Und-Modus betrieben werden. Mit der Oder-Verknüpfung erhöhe sich zwar die Zahl der Treffer, allerdings auch die Fehlerrate. Bei bestimmten Gefahrenlagen wie nach Terroranschlägen könne dennoch dieser Modus gewählt werden. "Die zu erwartende höhere Trefferrate könnte – unter Inkaufnahme einer anzunehmenden höheren Falschakzeptanzrate – die Wahrscheinlichkeit eines Fahndungstreffers signifikant erhöhen", heißt es. Im normalen Polizeialltag sollte jedoch die Und-Verknüpfung gewählt werden. Dann sei die Falschakzeptanzrate signifikant niedriger.

Nach Ansicht von Bundesinnenminister Horst Seehofer (CSU) zeigen die Ergebnisse, "dass die Technik zur Gesichtserkennung unsere Polizistinnen und Polizisten im Alltag erheblich unterstützen kann". Die Systeme hätten sich in beeindruckender Weise bewährt, sodass eine breite Einführung möglich sei. Nun müsse entschieden werden, unter welchen Bedingungen und in welchem Umfang die Technik künftig zum Einsatz kommen soll. Dabei müssten auch der Datenschutz und das Recht auf informationelle Selbstbestimmung beachtet werden.

Seehofer will Gesetzesänderung

Seehofer will im Falle einer Einführung zunächst "eine klarstellende Rechtsgrundlage im Bundespolizeigesetz" schaffen, aus der die Voraussetzungen und Rahmenbedingungen für den Einsatz von Systemen zur Gesichtserkennung und sonstiger intelligenter Videoüberwachung hervorgehen. Seehofers Vorgänger Thomas de Maizière hatte stets einen flächendeckenden Einsatz der Technik an Bahnhöfen und Flughäfen gefordert.

Die Bundesdatenschutzbeauftragte Andrea Voßhoff (CDU) hatte das Pilotprojekt im April 2017 für zulässig erklärt. Das habe allerdings nichts an grundsätzlichen Bedenken gegenüber dieser Technik geändert. "Sollten derartige Systeme später einmal in den Echtbetrieb gehen, wäre dies ein erheblicher Grundrechtseingriff", sagte Voßhoff damals.

Die Datenschützer von Bund und Ländern hatten Ende März 2017 erklärt, sie halten den Einsatz biometrischer Gesichtserkennungssoftware in Überwachungskameras für rechtswidrig. Es handele sich um einen besonders schweren Eingriff in das Grundrecht auf informationelle Selbstbestimmung, hieß es. "Der Einsatz von Videokameras mit biometrischer Gesichtserkennung kann die Freiheit, sich in der Öffentlichkeit anonym zu bewegen, gänzlich zerstören", hieß es. Außerdem bestehe das Risiko der falschen Identifizierung.