Bereits im Jahr 2014 hat Amazon in den USA eine Software entwickelt, die mittels Künstlicher Intelligenz ein Ranking der eingegangenen Bewerbungen erstellen sollte. Jetzt kam heraus, dass der Bewerbungsroboter Frauen diskriminierte – allerdings nicht absichtlich. Sven Laumer von der Universität Nürnberg-Erlangen erforscht, wie digitale Technologien in Personalprozessen eingesetzt werden, und erklärt, wie das passieren konnte.

ZEIT ONLINE: Herr Laumer, wie funktioniert ein Bewerbungsroboter?

Sven Laumer: Hinter einem Bewerbungsroboter steckt eine Künstliche Intelligenz, die Bewerbungen nach bestimmten Merkmalen und Schlüsselworten bezogen auf eine ausgeschriebene Stelle untersucht. Anschließend kann sie für die Recruiter eine Vorauswahl geeigneter Kandidaten zusammenstellen. Das System funktioniert nur dann, wenn es mit Daten gefüttert und trainiert wird. Zum Beispiel können die Unternehmen die Künstliche Intelligenz daraufhin trainieren, alle eingehenden Bewerbungen mit den erfolgreichen Neueinstellungen der letzten zehn Jahre zu vergleichen und Zusammenhänge herzustellen.

Jahrgang 1982, ist Inhaber des Schöller-Stiftungslehrstuhls für Wirtschaftsinformatik an der Universität Erlangen-Nürnberg. Er erforscht seit mehr als zehn Jahren, wie digitale Technologien in Personalprozessen eingesetzt werden, und ist Mitautor der beiden Studienreihen Recruiting Trends und Bewerbungspraxis. © privat

ZEIT ONLINE: Und wie konnte es passieren, dass das System von Amazon Frauen benachteiligt hat?

Laumer: Im Fall von Amazon hatte das System vor allem den Typ von Bewerber im Blick, der sich besonders häufig bei dem Unternehmen bewirbt: nämlich technikaffine Männer. Die Software ging davon aus, dass diese Menschen ein besonders großes Interesse am Arbeitgeber haben. Eigentlich nachvollziehbar. Das Problem ist: Weil es in der Tech-Branche mehr Männer gibt als Frauen, hat der Roboter geschlussfolgert, dass sich vor allem Männer für das Unternehmen begeistern können, und filterte Frauen eher heraus.

"Roboter diskriminieren impliziter als Menschen."
Sven Laumer

ZEIT ONLINE: Kommt so etwas öfter vor?

Laumer: In den USA gab es schon mal einen ganz ähnlichen Fall. Da hatte die Künstliche Intelligenz festgestellt, dass die Mitarbeiter, die weiter weg von der Arbeitsstelle wohnen, schneller ihre Stelle kündigen. Da das nicht im Interesse der Unternehmen ist, klingt es erst einmal einleuchtend, diese Bewerberinnen und Bewerber eher auszusortieren. Allerdings wohnen in den Außenbezirken oft Menschen, die einer ethnischen Minderheit angehören. Und schon diskriminiert man implizit eine ganze Gruppe von Bewerbern, die man eigentlich gar nicht benachteiligen wollte.

ZEIT ONLINE: Also entscheidet eine künstliche Intelligenz auch nicht vorurteilsfreier als Menschen?

Laumer: Das kann man so nicht sagen. Kein Mensch kann sich so ganz von seinem ersten Eindruck freimachen, auch kein erfahrener Personaler. Das kann dazu führen, dass man vorschnell ein Urteil über den Bewerber fällt, nur weil einem dessen Nase nicht gefällt. Einem Roboter, der das Merkmal Nase gar nicht kennt, würde das nicht passieren. Roboter diskriminieren impliziter als Menschen. Aber die Art und Weise, wie eine Software eine Entscheidung trifft, hängt natürlich von dem Datensatz ab, der ihm zugrunde liegt.

"Die große Herausforderung besteht darin, die Künstliche Intelligenz diskriminierungsfrei zu trainieren."

ZEIT ONLINE: Wenn bei einem Unternehmen vor allem weiße Männer arbeiten, dann ist auch die Künstliche Intelligenz auf weiße Männer fixiert.

Laumer: Genau. Die große Herausforderung besteht darin, die Künstliche Intelligenz diskriminierungsfrei zu trainieren. Dafür braucht man einen Datensatz, der explizit und implizit diskriminierungsfrei ist.

ZEIT ONLINE: Wie kann das gelingen?

Laumer: Dafür ist es wichtig, den Daten nie blind zu glauben, sondern sie immer zu hinterfragen. Es gibt die verrücktesten Zusammenhänge: Zum Beispiel korreliert die Anzahl der Suizide durch Ertrinken in einem Swimmingpool signifikant mit der Anzahl der Filme, in denen Nicolas Cage mitspielt. Uns Menschen ist klar, dass wir keinen Todesfall verhindern können, indem wir weniger Filme mit Nicolas Cage produzieren. Aber die Künstliche Intelligenz kommt nicht auf diese Idee. Sie sieht die Korrelation, ohne sie kritisch zu hinterfragen. So ist das auch beim Recruiting. Das System erkennt den Zusammenhang zwischen der Distanz zum Arbeitsplatz und der Kündigungsrate, ohne andere mögliche Einflussfaktoren zu berücksichtigen.

ZEIT ONLINE: Also müssen die Menschen der Künstlichen Intelligenz beibringen, dass beides nicht zwingend etwas miteinander zu tun hat.

Laumer: Genau. Sobald man als Unternehmen erkennt, dass das Kriterium der Distanz zum Arbeitsplatz bestimmte Menschen implizit benachteiligt, kann man dem System beibringen, nicht danach zu selektieren.

"Die finalen Entscheidungen treffen Menschen"

ZEIT ONLINE: Das klingt alles ziemlich kompliziert. Was spricht denn aus Sicht der Unternehmen dennoch dafür, KI für die Bewerbersuche einzusetzen?

Laumer: Die KI macht es möglich, dass sich die Unternehmen intensiver mit den Bewerberinnen und Bewerbern auseinandersetzen können, die wirklich infrage kommen. Das ist vor allem für große Konzerne interessant, die zum Beispiel zum Ausbildungsstart Hunderttausende Bewerbungen bekommen. Nutzen sie eine Software, dann müssen die Unternehmen nicht sämtliche HR-Leute abstellen, um die Bewerbungen vorzusortieren. Stattdessen sucht der Computer nach vorgegebenen Kriterien 100 Bewerbungen aus. Und die Personaler haben mehr Zeit, aus diesem Pool die 50 besten Kandidatinnen zu finden.

"Unternehmen befürchten, dass ihnen einige Bewerber den Rücken zuwenden, wenn sie erfahren, dass dort viel IT im Bewerbungsverfahren eingesetzt wird."

ZEIT ONLINE: Bewerberinnen mit einem gebrochenen Lebenslauf oder Quereinsteiger dürften es schwer haben, wenn der Roboter nur nach Noten und Berufserfahrung schaut.

Laumer: Aber auch ein menschlicher Personaler berücksichtigt Quereinsteiger meist erst dann, wenn sie niemanden finden, dessen Lebenslauf perfekt zur ausgeschriebenen Stelle passt. In der Vorauswahl können sich die Menschen meist nur wenige Sekunden Zeit nehmen, um eine Bewerbung zu sichten. Um mal beim Beispiel der Auszubildenden zu bleiben: Da könnten sich die Recruiterinnen zuallererst meist nur die Abschlussnote anschauen. Hier liegt der Roboter sogar im Vorteil. Er kann die Unterlagen auch zu einem frühen Zeitpunkt schon nach mehr als nur einem Kriterium durchleuchten, zum Beispiel auch nach Praktika, und die Erstauswahl auf einer breiteren Basis treffen.

ZEIT ONLINE: Erst sechs Prozent der Unternehmen in Deutschland nutzen Bewerbungsroboter. Das zeigt eine Studie, an der Sie mitgewirkt haben. Woran liegt das?

Laumer: Ich kann das nicht beweisen, aber ich glaube, dass es in Wirklichkeit mehr Unternehmen sind, die eine Vorauswahl mithilfe Künstlicher Intelligenz treffen. Das ist für die Firmen ein sensibles Thema. Fast niemand gibt gerne offen zu, dass bei ihnen ein Roboter Entscheidungen trifft. Tatsächlich wird heute auch keine finale Einstellungsentscheidung nur alleine durch den Roboter getroffen. Die finalen Entscheidungen treffen Menschen. Trotzdem klingt es sympathischer, von sich zu sagen: Bei uns wird jede Bewerbung von Menschen gesichtet. Die Unternehmen befürchten, dass ihnen einige Bewerber den Rücken zuwenden, wenn sie erfahren, dass dort viel IT im Bewerbungsverfahren eingesetzt wird.

ZEIT ONLINE: Zu Recht?

Laumer: Eher nicht. Unsere Studien zeigen, dass die Bewerber – übrigens vor allem die Frauen – recht aufgeschlossen sind gegenüber einer automatisierten Vorauswahl. Allein schon, weil der Bewerbungsprozess dadurch schneller geht. Wir bekommen heute innerhalb weniger Minuten Antworten auf fast alle Fragen des Lebens. Da ist es nicht zeitgemäß, wochenlang darauf zu warten, dass sich ein Unternehmen wegen einer Bewerbung zurückmeldet. Ich glaube, dass viele Unternehmen bald auf diese Erwartungen reagieren werden.

"Zurzeit wollen alle wissen, mithilfe welcher Kriterien man die Mitarbeiter auswählen kann, die perfekt zum Unternehmen passen."

ZEIT ONLINE: Wie schreibt man denn eine Bewerbung, die ein Roboter nicht gleich aussortiert?

Laumer: Der Roboter verzeiht keine Rechtschreibfehler. Denn wenn ein Schlüsselwort falsch geschrieben ist, also zum Beispiel eine bestimmte Qualifikation oder Fähigkeit, dann kann die Software sie nicht lesen und verarbeiten. Aus dem gleichen Grund sollten Bewerber die Begriffe verwenden, die in der Branche oder beim Arbeitgeber üblich sind und die in der Stellenanzeige genannt wurden. Darüber hinaus ist es sinnvoll, wenn diese Schlüsselwörter nicht irgendwo im Lebenslauf versteckt stehen, sondern an einer auffälligen Stelle: etwa als Zwischenüberschrift.

ZEIT ONLINE: Und wie wird die Künstliche Intelligenz jetzt schlauer, damit solche Fehler wie bei Amazon künftig nicht mehr passieren?

Laumer: Die Anwendungsunternehmen, die Anbieter der Systeme und die Roboter selbst müssen gemeinsam daran arbeiten, die Algorithmen zu verbessern und explizite und implizite Zusammenhänge besser zu erkennen. Es ist wie bei jeder Technologie: Sie wird entwickelt, macht anfangs Fehler und verhält sich anders, als man vielleicht erwartet hat. Dann wird nachjustiert und sie wird von Mal zu Mal besser. Zurzeit sind alle auf der Suche nach dem Heiligen Gral, alle wollen wissen, mithilfe welcher Kriterien man die Mitarbeiter auswählen kann, die perfekt zum Unternehmen passen – und zwar ohne bestimmte Bewerber zu diskriminieren.