Der Algorithmus, dein Freund und Helfer. So präsentiert das Start-up Clearview seine Software im Internet: "eine Technologie zur Aufklärung der schwersten Verbrechen". Es ist ein Algorithmus zur Gesichtserkennung. Er soll dabei helfen, "Kinderschänder, Mörder, mutmaßliche Terroristen und andere gefährliche Personen schnell, genau und zuverlässig zu identifizieren". Dazu braucht es nur ein Foto, die Software scannt es und sammelt in wenigen Sekunden die im Internet verfügbaren Informationen über die Person.

Der Algorithmus arbeitet auf einer beeindruckenden Datenbasis: mehr als drei Milliarden Fotos, die das Start-up aus dem Netz geklaubt hat, Profilbilder von Facebook oder Urlaubsfotos von Instagram zum Beispiel. Twitter verlangt inzwischen, dass Clearview die dort kopierten Fotos löscht.

Einem Bericht der New York Times zufolge hat das Unternehmen sein Produkt an mehrere Hundert Institutionen in den USA und Kanada verkauft, darunter Polizeibehörden und das FBI. Ein Tool, schreibt das Blatt, das "das Ende der Privatsphäre, wie wir sie kennen", bedeute. Das klingt bedrohlich.

Andererseits sind die meisten Softwares zur Gesichtserkennung sehr fehleranfällig. Gut so, könnte man meinen. Doch daraus ergeben sich neue Gefahren. Das zeigt eine aktuelle Studie vom Dezember, ebenfalls aus den USA: Die US-Behörde für Technologie, das National Institute of Standards and Technology (NIST), testete 189 Algorithmen von 99 Herstellern. Sie mussten die zwei gängigsten Aufgaben der Gesichtserkennung bewältigen: den Abgleich eines Gesichts mit einem Foto, das zum Beispiel beim Entsperren des Handys per Face-ID genutzt wird. Und die Suche eines Gesichts in einer Fotodatenbank, so wie bei Clearview.

Das Fazit: Die meisten Algorithmen diskriminieren bestimmte Bevölkerungsgruppen. Schwarze oder asiatische Menschen werden bis zu hundertmal so oft falsch identifiziert wie weiße. Aber auch bei Älteren, Frauen und Kindern versagen die Algorithmen häufig. Besonders schlecht funktionieren sie bei schwarzen Frauen.

Die Studie belegt, was Einzelfälle bereits ahnen ließen. So wollte der Neuseeländer Richard Lee im Dezember 2016 einen neuen Pass beantragen, doch sein Foto wurde von der Software abgelehnt, weil seine Augen angeblich geschlossen waren. Lees Augen waren jedoch nur schmaler, weil seine Eltern aus Taiwan und Malaysia stammen. Und die schwarze Forscherin Joy Buolamwini, die selbst Gesichtserkennungssysteme testet, muss sich für ihre Arbeit regelmäßig eine weiße Maske aufsetzen, damit die Algorithmen in ihr überhaupt einen Menschen erkennen.

Die NIST-Forscher haben in ihrer Studie auch eine Ursache für diese Probleme entdeckt. Die Bilddateien, mit denen die Systeme trainiert werden, enthalten überwiegend weiße Gesichter. Die mangelnde Diversität wird also von den Entwicklern in die Daten hineingetragen und vom Algorithmus reproduziert. Während die in den USA entwickelten Systeme bei allen Minderheiten fehleranfällig sind, erkennen solche aus Asien asiatische Gesichter genauso gut wie andere. Und noch etwas fanden die Forscher heraus: Die Algorithmen, die mit Diversität am besten umgehen können, sind auch insgesamt am genauesten.