Matthias Spielkamp, Geschäftsführer von Algorithmwatch © Michael Pfister

Zahlreiche Entscheidungen und Einschätzungen werden in unserem Alltag heute bereits von Algorithmen und künstlicher Intelligenz mitgetroffen: Sie sind es, die den Newsfeed auf Facebook sortieren, sie sind es aber auch, die die Plausibilität von Steuererklärungen in Deutschland prüfen oder Jobbewerber vorsortieren. Das klingt zunächst einmal effizient, modern und neutral – bis sich zeigt, dass auch Maschinen Menschen diskriminieren können. Oder eben Entscheidungen treffen sollen, die auch uns Menschen schwerfallen – etwa beim autonomen Fahren.

Wie aber weist man Diskriminierung nach? Warum treffen Algorithmen so oft Entscheidungen, die gar nicht so neutral sind, wie viele es von Computersystemen erwarten würden? Wie kann man diese Maschinen besser kontrollieren, ihre Entscheidungen im Notfall auch revidieren – und wie treibt man ihnen die Vorurteile wieder aus?

Staaten, aber auch Firmen arbeiten längst an Antworten auf diese Fragen. Pauschale Lösungen gebe es nicht, sagt Matthias Spielkamp von der Nichtregierungsorganisation Algorithmwatch. Was daran liege, dass die Computersysteme an so unterschiedlichen Stellen eingesetzt würden und ganz unterschiedlich funktionierten. Seine Organisation klärt darüber auf, welche Wirkung Algorithmen haben und wo sie zum Einsatz kommen. Spielkamp versuchte, mit seinen Kolleginnen und Kollegen besser zu erforschen, wie die Schufa arbeitet. Und sie berichteten, wie eine Software in den Niederlanden Sozialbetrüger aufspüren sollte.

Es gehe darum, Softwaresysteme so einzusetzen, dass das Gemeinwohl gefördert, nicht geschwächt werde, sagt Spielkamp. Doch das sei schwer umzusetzen – unter anderem, weil eben sektorspezifisch auf die Algorithmen geschaut werden müsse, statt vermeintlich einfache Lösungen wie einen Algorithmen-TÜV oder politische Regulierungen zu fordern. 

Sie erreichen uns per Mail unter wirddaswas@zeit.de.