ZEIT ONLINE: Herr Weitzel, in den USA gibt es erste Firmen, die Bewerbungsgespräche von einem Computer führen lassen. Der Kandidat sitzt vor der Webcam; eine Software analysiert Mimik, Stimme, Inhalt und berechnet daraus, ob man den Bewerber einstellen sollte oder nicht. Finden Sie das nicht befremdlich?

Tim Weitzel: Im ersten Moment vielleicht. Aber wenn das funktioniert, ist das ein erheblicher Fortschritt.

ZEIT ONLINE: Inwiefern?

Weitzel: Schauen Sie sich an, wie Stellenbesetzungen ablaufen. Ist das wirklich optimal? Oft führen das Gespräch Mitarbeiter aus der Personalabteilung, nicht die Kollegen, mit denen der Bewerber später zusammenarbeiten soll. Aber woher soll der Recruiter wissen, welchen Mitarbeiter die Fachabteilung braucht? Wie aussagekräftig ist die menschliche Entscheidung in so einem Fall überhaupt?

ZEIT ONLINE: Der Algorithmus entscheidet besser als ein Personaler, der vom eigentlichen Job keine Ahnung hat?

Weitzel: Gut möglich. Überlegen wir uns einmal, was ein menschlicher Recruiter in einem Bewerbungsgespräch macht. Was sind die Kriterien, nach denen er den Daumen hebt oder senkt? Sind das überhaupt die richtigen? Wir müssen sagen: Wir wissen ziemlich wenig darüber, wie Einstellungsentscheidungen ablaufen und ob sie wirklich sinnvoll sind. Dass ein Mensch sie trifft, ist noch kein Wert an sich. Es kommt auf die richtige Entscheidung an. Wir können die Dinge besser machen, indem wir weniger aus dem Bauch und mehr mit dem Kopf entscheiden. Und automatisierte Vorstellungsgespräche per Computer können erheblich dazu beitragen.

"Früher waren es vor allem die Personaler, die sich zur Arbeitserleichterung mehr Automatisierung wünschten. Inzwischen denkt sogar ein großer Teil der Stellensucher so."
Tim Weitzel

ZEIT ONLINE: Als Bewerber wäre ich trotzdem skeptisch, wenn die Entscheidung über etwas für mich so Existenzielles wie ein neuer Job eine gefühlsfreie Maschine treffen soll.

Weitzel: Warum? Sogar immer mehr Bewerberinnen und Bewerber sehen das mittlerweile ganz anders, was ich für eine spektakuläre Entwicklung halte. Früher waren es vor allem die Personaler, die sich zur Arbeitserleichterung mehr Automatisierung wünschten. Inzwischen denkt sogar ein großer Teil der Stellensucher so. In einer unserer Umfragen kam heraus, dass ein Drittel der Bewerber die Auswahl durch den Roboter gut findet.

ZEIT ONLINE: Was kann der Algorithmus besser?

Tim Weitzel ist Professor für Wirtschaftsinformatik an der Universität Bamberg und forscht dort zum Thema "Robot Recruiting". © privat

Weitzel: Er ist schneller, vor allem aber: Der Algorithmus diskriminiert nicht. Er ist objektiv. Einem Recruiter gefällt vielleicht meine Haarfarbe nicht oder mein Geschlecht. Wir wissen aus unzähligen Studien, dass Personalverantwortliche oft nach Stereotypen entscheiden, auch wenn ihnen das in vielen Fällen selbst nicht einmal bewusst ist. Menschen mit einem ausländisch klingenden Namen zum Beispiel haben bei gleicher Qualifikation nachweislich schlechtere Chancen, zu einem Bewerbungsgespräch eingeladen zu werden. Der Computer hat keine Vorurteile, er achtet allein auf meine Eignung und Fähigkeiten. Bezeichnend und beschämend für die derzeitige Personalpraxis ist, dass in unserer Befragung gerade Frauen angeben, dass sie lieber von einem Roboter eingestellt werden würden.

"Nach 100 Beobachtungen war unsere Software schließlich so gut trainiert, dass sie zu ähnlichen Entscheidungen kam wie die menschlichen Personaler. Aber sie hat unter Umständen auch deren Vorurteile übernommen."
Tim Weitzel

ZEIT ONLINE: Eine Absage von einem Roboter wäre aber auch umso vernichtender: Es gibt dann nicht mehr irgendwelche irrationalen Bauchgefühle eines Personalers als Restmöglichkeit, auf die Bewerber ihren Misserfolg schieben könnten. Es lag dann objektiv daran, dass sie nicht taugen.

Weitzel: Schon richtig. Ich glaube dennoch, dass langfristig auch Bewerberinnen und Bewerber etwas davon hätten. Denn was bringt es ihnen, wenn sie einen Job zwar bekommen, die Stelle aber am Ende gar nicht so gut zu ihnen passt? Als totale Fehlbesetzung werden sie an einem Arbeitsplatz nicht glücklich. Je besser das Matching ist, desto zufriedener sind auch die Kandidaten mit der Stelle. Auf Dauer profitieren beide Seiten. Sie ziehen in Wahrheit am selben Strang.

ZEIT ONLINE: Ist es nicht eine Illusion, dass Programme nicht diskriminieren würden?

Weitzel: Es kommt selbstverständlich darauf an, was man ihnen beibringt und wie sie lernen. Ein Beispiel: Wir haben vor Jahren an der Uni einmal ein System entwickelt, dass Personalern gewissermaßen beim Sortieren von Lebensläufen über die Schulter schaut. Unser Programm hat versucht, statistische Muster zu erkennen, nach denen die Rekrutierer entscheiden, wer zum Gespräch eingeladen werden soll und wer nicht. Nach 100 Beobachtungen war unsere Software schließlich so gut trainiert, dass sie zu ähnlichen Entscheidungen kam wie die menschlichen Personaler. Aber sie hat unter Umständen auch deren Vorurteile übernommen.

"Die Hoffnung ist, dass wir es durch Daten herausfinden können"

ZEIT ONLINE: Wenn Personaler dazu neigen, die Bewerbungen von Frauen im Alter zwischen 25 und 35 auszusortieren, macht der Computer das also auch?

Weitzel: Deswegen sollten wir uns eben nicht blind auf die Maschine verlassen, sondern immer wieder überprüfen, welche Kriterien ein Algorithmus entwickelt. Aber trotzdem: Überlassen Sie einem einzigen Menschen die Entscheidung, liegt die Objektivität bei Null. Bei zwei Menschen, die unabhängig voneinander prüfen, ist der Wert vielleicht schon besser. Aber eine Maschine, die mit vielen verschiedenen Daten gefüttert wird, ist definitiv deutlich objektiver. Zumindest die eklatante Diskriminierung wird dadurch unwahrscheinlicher.

ZEIT ONLINE: Ein amerikanischer Druckerhersteller hatte es satt, dass seine Mitarbeiter immer so schnell kündigten. Er hat seine Personaldaten vom Computer auswerten lassen, um einen Algorithmus zu entwickeln, der aus dem Bewerberkreis potenzielle Jobhopper aussortiert. Ein Ergebnis war, dass Kandidaten mit zu vielen Social-Media-Profilen jetzt schlechte Karten hatten. Einer künstlichen Intelligenz fallen mitunter Diskriminierungsgründe ein, auf die kein Mensch gekommen wäre.

Weitzel: Die Verlockung ist groß, einfach so viele Daten wie nur möglich zu nehmen und nach statistischen Mustern zu suchen. Machen Brillenträger häufiger Überstunden? Könnte ja sein, und je mehr Informationen über die Mitarbeiter vorliegen, desto mehr solcher Zusammenhänge wird man finden. Eine Korrelation ist aber bekanntlich noch lange keine Kausalität. Wenn zwei Merkmale zusammenfallen, heißt das nicht, dass das eine das andere verursacht. Überlässt man eine künstliche Intelligenz sich selbst, besteht tatsächlich die Gefahr, dass sie irgendwann nach merkwürdigen Kriterien entscheidet. Ihr fehlt das Fachwissen. Bevor man eine bestimmte Eigenschaft zum Auswahlkriterium macht, sollte immer die Frage geklärt werden: Ergibt das denn inhaltlich überhaupt Sinn? Oder sitzt man eher einer Scheinkorrelation auf? Trotzdem sind wir hierzulande noch sehr weit weg von einem solchen Szenario.

"Was ist die Idealbesetzung für eine Stelle? Das wissen wir bislang nicht."
Tim Weitzel

ZEIT ONLINE: Warum?

Weitzel: Das Problem ist: Die meisten Unternehmen haben die Daten gar nicht, aus denen ein selbstlernender Algorithmus die Maßstäbe für eine vernünftige Mitarbeitersuche ableiten könnte.

ZEIT ONLINE: Welche Daten bräuchten sie dafür?

Weitzel: Die Firmen müssten viel detaillierter als bislang untersuchen, welche Mitarbeiter im Betrieb wie erfolgreich sind, was die besonders guten Leute auszeichnet, wie sich die Karrieren entwickeln, wer gut ins Team passte und wer nicht. Solche Informationen werden heute kaum systematisch erhoben, wären aber enorm wichtig, damit eine künstliche Intelligenz daraus in einigen Jahren vielleicht einmal gute Einstellungsvorschläge machen kann. Was ist die Idealbesetzung für eine Stelle? Das wissen wir bislang nicht. Die Hoffnung ist, dass wir es durch Daten herausfinden können.

ZEIT ONLINE: Die Einstellung durch den Roboter setzt also den gläsernen Angestellten voraus – ob die Bewerber, die auf den diskriminierungsfreien Computer hoffen, das mitbedenken …

Weitzel: Man kann die Daten ja ohne Probleme anonymisieren, so dass keine Mitarbeiterin und kein Mitarbeiter fürchten muss, übermäßig kontrolliert zu werden. Eine künstliche Intelligenz interessiert nur, ob bestimmte Eigenschaften mit dem Erfolg in einem bestimmten Job zusammenhängen. Ob die Informationen von Lieschen Müller oder Peter Schmitz stammen, ist der Maschine egal.

ZEIT ONLINE: Aber vielleicht nicht dem Chef, wenn er vor der Entscheidung steht, wer entlassen werden soll.

Weitzel: Ich gebe Ihnen recht: Man wird sicher einen verantwortungsvollen Umgang mit den Daten finden müssen, der die Schutzinteressen der Mitarbeiter einbezieht. Aber nur weil es Missbrauch geben könnte, sollten wir die Nutzung der Daten nicht unmöglich machen. Wenn es schon bei der Besetzung ein besseres Matching gibt, profitieren am Ende beide Seiten massiv – Unternehmen und Mitarbeiter.