Sie kann den Eiffelturm identifizieren, Sonnenbrillen auf der Nase und putzige Hunderassen: Die automatische Bilderkennung des kürzlich vorgestellten Dienstes Google Fotos funktioniert erstaunlich gut. Trotzdem scheitert sie bisweilen an vermeintlich simplen Aufgaben wie dem Identifizieren von Menschen. Das musste jetzt der US-Programmierer Jacky Alciné feststellen. Bei mehreren seiner Porträts schlug Google Fotos das Schlagwort "Gorilla" vor. Das allein wäre peinlich genug, doch dieser Fall ist heikler: Alciné und seine Freunde sind nämlich dunkelhäutig. Die falsche Einordnung wirkte wie eine rassistische Beleidigung.

Der Fall hat eine ungewöhnliche Reaktion bei den Verantwortlichen von Google hervorgerufen: Nur kurze Zeit nachdem Alciné seine Entdeckung auf Twitter öffentlich machte, antwortete ihm der Google-Ingenieur Yonatan Zunger: "Holy Fuck, das ist zu 100% nicht OK". Er habe das Problem an die verantwortlichen Techniker weitergegeben und man arbeite an einer Lösung. Einen Tag später erkundigte sich Zunger noch einmal bei Alciné und fragte, ob das ungewollte Schlagwort nun verschwunden sei. Das war es noch nicht in allen Fällen, aber Google und der Betroffene blieben in Kontakt, um weiter an dem Problem zu arbeiten.

Google Fotos ist nicht die einzige Plattform, deren automatische Verschlagwortung in Einzelfällen solche Fehler macht. Vor wenigen Wochen stellte die Fotoplattform Flickr eine ähnliche Funktion vor und es dauerte nicht lange, bis die ersten Beschwerden auftauchten: Mehrere Menschen wurden mit dem Schlagwort "Affen" und "Tiere" versehen, auch hier waren es vor allem, wenn auch nicht ausschließlich, dunkelhäutige Personen. Flickr hat die entsprechenden Schlagworte daraufhin komplett entfernt und Besserung gelobt.

"Bei der Bilderkennung sollen heute nicht nur Gesichter, sondern viele verschiedene Dinge erkannt werden", sagt Thomas Brox vom Lehrstuhl für Mustererkennung und Bildverarbeitung der Universität Freiburg. Die Algorithmen werden zwar mit Millionen von Einzelbildern trainiert und verbessern sich stetig, doch Fehler lassen sich bei dieser recht komplexen Aufgabe nicht ausschließen. "Nach wie vor haben Computer bei weitem noch kein so gutes Verständnis von Zusammenhängen in Bildern wie Menschen", sagt Brox.

Können Algorithmen rassistisch sein?

Problematische Ergebnisse gibt es nicht nur bei der Bilderkennung. Vor Kurzem fand ein Journalist der Washington Post heraus, dass eine Suche bei Google Maps nach den Begriffen "N***** King" und "N***** House" zum Weißen Haus führte. Denkbar ist, dass rassistische Nutzer den – inzwischen deaktivierten – Map Maker missbrauchten. Wahrscheinlicher ist, dass sie Googles Suchalgorithmus manipuliert haben: Mit einer sogenannten Google-Bombe werden Links mit gezielten Schlagworten in Umlauf gebracht, aus denen der Google-Bot neue Verknüpfungen erschließt. Findet Google genug Links mit dem Titel "N****** King", die auf das Weiße Haus verweisen, schlägt die Suche es als Ergebnis vor.

Ähnlich funktioniert auch Googles automatische Vervollständigung (man erinnere sich an Bettina Wulff). Sie analysiert vorherige Suchanfragen und ergänzt neue Suchen entsprechend. Das ist häufig witzig und entlarvt Vorurteile, ist aber in manchen Fällen eben auch anstößig oder rassistisch. Etwa, wenn auf die Frage "Why do black...." die Ergänzung "people steal" erscheint. Einige Suchbegriffe sind deshalb auch vollständig oder zumindest in einzelnen Regionen von der automatischen Vervollständigung ausgenommen.

Angesichts dieser Entwicklungen könnte man überspitzt fragen: Können Algorithmen rassistisch sein? Natürlich ist es denkbar, dass sie von Beginn an so programmiert werden, um Vorurteile und Stereotype hervorzuheben. In den erwähnten Beispielen, also in Googles Suchergebnissen oder bei Flickrs automatischer Bilderkennung, handelt es sich allerdings um lernende Algorithmen, die vor allem mit den Eingaben von Nutzern gefüttert werden. Je mehr Nutzer diese Algorithmen mit ihren eigenen Vorurteilen anreichern und mit Klicks "belohnen", desto leichter fassen Vorurteile und Geschmacklosigkeiten möglicherweise Fuß.