"Meine Freundin ist kein Gorilla" – Seite 1

Sie kann den Eiffelturm identifizieren, Sonnenbrillen auf der Nase und putzige Hunderassen: Die automatische Bilderkennung des kürzlich vorgestellten Dienstes Google Fotos funktioniert erstaunlich gut. Trotzdem scheitert sie bisweilen an vermeintlich simplen Aufgaben wie dem Identifizieren von Menschen. Das musste jetzt der US-Programmierer Jacky Alciné feststellen. Bei mehreren seiner Porträts schlug Google Fotos das Schlagwort "Gorilla" vor. Das allein wäre peinlich genug, doch dieser Fall ist heikler: Alciné und seine Freunde sind nämlich dunkelhäutig. Die falsche Einordnung wirkte wie eine rassistische Beleidigung.

Der Fall hat eine ungewöhnliche Reaktion bei den Verantwortlichen von Google hervorgerufen: Nur kurze Zeit nachdem Alciné seine Entdeckung auf Twitter öffentlich machte, antwortete ihm der Google-Ingenieur Yonatan Zunger: "Holy Fuck, das ist zu 100% nicht OK". Er habe das Problem an die verantwortlichen Techniker weitergegeben und man arbeite an einer Lösung. Einen Tag später erkundigte sich Zunger noch einmal bei Alciné und fragte, ob das ungewollte Schlagwort nun verschwunden sei. Das war es noch nicht in allen Fällen, aber Google und der Betroffene blieben in Kontakt, um weiter an dem Problem zu arbeiten.

Google Fotos ist nicht die einzige Plattform, deren automatische Verschlagwortung in Einzelfällen solche Fehler macht. Vor wenigen Wochen stellte die Fotoplattform Flickr eine ähnliche Funktion vor und es dauerte nicht lange, bis die ersten Beschwerden auftauchten: Mehrere Menschen wurden mit dem Schlagwort "Affen" und "Tiere" versehen, auch hier waren es vor allem, wenn auch nicht ausschließlich, dunkelhäutige Personen. Flickr hat die entsprechenden Schlagworte daraufhin komplett entfernt und Besserung gelobt.

"Bei der Bilderkennung sollen heute nicht nur Gesichter, sondern viele verschiedene Dinge erkannt werden", sagt Thomas Brox vom Lehrstuhl für Mustererkennung und Bildverarbeitung der Universität Freiburg. Die Algorithmen werden zwar mit Millionen von Einzelbildern trainiert und verbessern sich stetig, doch Fehler lassen sich bei dieser recht komplexen Aufgabe nicht ausschließen. "Nach wie vor haben Computer bei weitem noch kein so gutes Verständnis von Zusammenhängen in Bildern wie Menschen", sagt Brox.

Können Algorithmen rassistisch sein?

Problematische Ergebnisse gibt es nicht nur bei der Bilderkennung. Vor Kurzem fand ein Journalist der Washington Post heraus, dass eine Suche bei Google Maps nach den Begriffen "N***** King" und "N***** House" zum Weißen Haus führte. Denkbar ist, dass rassistische Nutzer den – inzwischen deaktivierten – Map Maker missbrauchten. Wahrscheinlicher ist, dass sie Googles Suchalgorithmus manipuliert haben: Mit einer sogenannten Google-Bombe werden Links mit gezielten Schlagworten in Umlauf gebracht, aus denen der Google-Bot neue Verknüpfungen erschließt. Findet Google genug Links mit dem Titel "N****** King", die auf das Weiße Haus verweisen, schlägt die Suche es als Ergebnis vor.

Ähnlich funktioniert auch Googles automatische Vervollständigung (man erinnere sich an Bettina Wulff). Sie analysiert vorherige Suchanfragen und ergänzt neue Suchen entsprechend. Das ist häufig witzig und entlarvt Vorurteile, ist aber in manchen Fällen eben auch anstößig oder rassistisch. Etwa, wenn auf die Frage "Why do black...." die Ergänzung "people steal" erscheint. Einige Suchbegriffe sind deshalb auch vollständig oder zumindest in einzelnen Regionen von der automatischen Vervollständigung ausgenommen.

Angesichts dieser Entwicklungen könnte man überspitzt fragen: Können Algorithmen rassistisch sein? Natürlich ist es denkbar, dass sie von Beginn an so programmiert werden, um Vorurteile und Stereotype hervorzuheben. In den erwähnten Beispielen, also in Googles Suchergebnissen oder bei Flickrs automatischer Bilderkennung, handelt es sich allerdings um lernende Algorithmen, die vor allem mit den Eingaben von Nutzern gefüttert werden. Je mehr Nutzer diese Algorithmen mit ihren eigenen Vorurteilen anreichern und mit Klicks "belohnen", desto leichter fassen Vorurteile und Geschmacklosigkeiten möglicherweise Fuß.

Auch selbstlernende Algorithmen müssen begleitet werden

Auch bei der Bilderkennung ist die Sache unglücklich, aber harmlos, findet jedenfalls Google: "Der Fehler war bloß eine Maschine, die Probleme mit dem Lernen hat", fasst Yonatan Zunger die unglückliche Verschlagwortung von Jacky Alcinés Foto zusammen. Das käme regelmäßig vor. So hätte die Software zunächst auch Probleme damit gehabt, weiße Babys von Seehunden zu unterscheiden. Was den aktuellen Fall schwerwiegender mache, sei die Tatsache, dass "Gorilla" eine historisch rassistische Beleidigung sei, was der Algorithmus nicht wisse. Je mehr Nutzer die falschen Schlagworte melden, desto besser werde das System in Zukunft laufen.

"Wenn man dieses spezielle Problem noch stärker vermeiden möchte, müsste man die Unterscheidung zwischen diesen beiden Klassen beim Training noch stärker hervorheben", sagt Brox. Dem Algorithmus müsse also noch gezielter eingebläut werden, zwischen dunkelhäutigen Menschen und Gorillas zu unterscheiden. Das bedeutet aber auch, dass man den Algorithmus in seinem Lernprozess noch stärker begleitet.

Mehr Verantwortung für Entwickler

In einer aktuellen Kolumne für die deutsche Wired erhofft sich der Informatiker Jürgen Geuter mehr Verantwortung von allen, die Algorithmen in Umlauf bringen: "Wer Automatisierung in die Welt einbringt, die autonom mit dieser interagiert, muss sich überlegen, wie das Verhalten dieses Systems anderen gegenüber aussieht und im schlimmsten Fall aussehen kann", schreibt Geuter. Er schlägt vor, dass Algorithmen von unabhängigen Experten getestet werden, bevor sie öffentlich angeboten werden. So könnte nach und nach eine Art Gütesiegel für Algorithmen entstehen. Mit einer umfassenden Bibliothek bekannter Testfälle könnten Fehler wie eine geschmacklose Verschlagwortung künftig möglicherweise minimiert werden. 

Ob die großen Technologiekonzerne sich allerdings darauf einlassen, ihre Technik noch genauer vorab zu testen und externe Richtlinien befolgen, ist fraglich. "Das passt nicht zur Branche, die von Innovationen lebt", sagt Brox, "jeder möchte die Innovationen möglichst schnell herausbringen." Menschen wie Jacky Alciné bleibt dann zumindest noch die öffentliche Beschwerde, wenn die Maschinen wieder einmal Menschen zu Tieren gemacht haben.