Algorithmen zur Gesichtserkennung funktionieren nicht bei allen Hauttönen und Geschlechtern gleich gut. Das ergibt eine Studie der Informatikerin Joy Buolamwini des Massachusetts Institute of Technology (MIT). Demnach werden männliche weiße Personen von einigen viel genutzten Machine-Learning-Systemen am besten erkannt, die Fehlerquote wird umso höher, je dunkler die Hautfarbe und ist am höchsten bei schwarzen Frauen.

Boulamwini hat Algorithmen untersucht, die Gesichter einem Geschlecht zuordnen, und zwar die Machine-Learning-Systeme von Microsoft, IBM und Face++. Letzteres wird in Produkten von Kunden wie Lenovo und Dell verwendet. Dabei wurde das Geschlecht von etwa 99 Prozent der weißen Männer aus einer Stichprobe von 385 Fotos erkannt. Bei weißen Frauen sank die Quote bereits auf 93 Prozent, bei 296 ausgesuchten Bildern. Aus 318 Bildern wurden nur 88 Prozent der männlichen Personen mit dunklerer Hautfarbe auch als Männer erkannt. Bei 271 Bildern von schwarzen Frauen sind Gesichtserkennungsalgorithmen nur zu 75 Prozent akkurat.

Dabei erzielten die Algorithmen von Microsoft noch die besseren Ergebnisse gegenüber IBM und Face++: Sie erkannten 21 Prozent der dunkelhäutigen Frauen nicht, während die Fehlerquote bei den Konkurrenten um 35 Prozent lag. Bisher sei nur vermutet worden, dass Algorithmen bei verschiedenen Bevölkerungsgruppen unterschiedlich funktionierten, sagte Sorelle Friedler vom Haverford College im Gespräch mit der New York Times. Die Studie weise den Zusammenhang empirisch nach.

Weniger Referenzmaterial bei schwarzen Frauen

Für die Ungenauigkeiten bei der Gesichtserkennung kommen verschiedene Gründe in Betracht. Zum einen sind Algorithmen nur so klug wie die ihnen zur Verfügung gestellten Daten – und spiegeln, meistens den Entwicklern selbst unbewusst, deren rassistische oder sexistische Tendenzen wider. So seien laut New York Times auf etwa 75 Prozent einer Sammlung von Referenzbildern, die als Trainingsmaterial für verschiedene Anwendungen bereitgestellt werden, Männer abgebildet. Davon sind wiederum 80 Prozent weiß.

In den vergangenen Jahren gab es immer wieder Berichte über Algorithmen, die nicht ausreichend auf Diversität trainiert wurden. 2015 beschrieb Google Photos Bilder einer schwarzen Frau mit dem Tag "Gorilla" – und löste damit eine größere Debatte aus. Nicht viel besser erging es den Entwicklern der App Beauty.ai, die objektive Aussagen über Schönheit treffen wollte, unter 40 Gewinnern aber nur eine einzige schwarze Frau zu finden war. Zuletzt gab es Berichte, wonach sich die Gesichtserkennung des iPhone X mit asiatischen Gesichtern einfacher aushebeln ließe.

Im aktuellen Fall könnten auch technische Aspekte einen Einfluss haben: So erleichtern Kontraste Algorithmen das Unterscheiden von Formen. Diese sind bei weißen Gesichtern höher. Außerdem könnte die Vielfalt der Frisuren bei Frauen die Zuordnung zu einem Geschlecht erschweren. Sowohl IBM als auch Microsoft gaben in Reaktion auf die Studie bekannt, etwaige Vorurteile in ihrer Software zu beheben.

Buolamwini will das Bewusstsein in der Öffentlichkeit für die von ihr nachgewiesene Problematik wecken. Sie selbst habe als weibliche Afroamerikanerin während ihres Studiums erlebt, dass Algorithmen ihr Gesicht nicht erkannt hätten. Sie sagte der New York Times: "Okay, das ist ernst. Zeit, etwas zu tun." Das Ergebnis: die Algorithmic Justice League, ein Projekt, das sich dem Problem widmen soll.