ZEIT ONLINE: Wenn Personaler dazu neigen, die Bewerbungen von Frauen im Alter zwischen 25 und 35 auszusortieren, macht der Computer das also auch?

Weitzel: Deswegen sollten wir uns eben nicht blind auf die Maschine verlassen, sondern immer wieder überprüfen, welche Kriterien ein Algorithmus entwickelt. Aber trotzdem: Überlassen Sie einem einzigen Menschen die Entscheidung, liegt die Objektivität bei Null. Bei zwei Menschen, die unabhängig voneinander prüfen, ist der Wert vielleicht schon besser. Aber eine Maschine, die mit vielen verschiedenen Daten gefüttert wird, ist definitiv deutlich objektiver. Zumindest die eklatante Diskriminierung wird dadurch unwahrscheinlicher.

ZEIT ONLINE: Ein amerikanischer Druckerhersteller hatte es satt, dass seine Mitarbeiter immer so schnell kündigten. Er hat seine Personaldaten vom Computer auswerten lassen, um einen Algorithmus zu entwickeln, der aus dem Bewerberkreis potenzielle Jobhopper aussortiert. Ein Ergebnis war, dass Kandidaten mit zu vielen Social-Media-Profilen jetzt schlechte Karten hatten. Einer künstlichen Intelligenz fallen mitunter Diskriminierungsgründe ein, auf die kein Mensch gekommen wäre.

Weitzel: Die Verlockung ist groß, einfach so viele Daten wie nur möglich zu nehmen und nach statistischen Mustern zu suchen. Machen Brillenträger häufiger Überstunden? Könnte ja sein, und je mehr Informationen über die Mitarbeiter vorliegen, desto mehr solcher Zusammenhänge wird man finden. Eine Korrelation ist aber bekanntlich noch lange keine Kausalität. Wenn zwei Merkmale zusammenfallen, heißt das nicht, dass das eine das andere verursacht. Überlässt man eine künstliche Intelligenz sich selbst, besteht tatsächlich die Gefahr, dass sie irgendwann nach merkwürdigen Kriterien entscheidet. Ihr fehlt das Fachwissen. Bevor man eine bestimmte Eigenschaft zum Auswahlkriterium macht, sollte immer die Frage geklärt werden: Ergibt das denn inhaltlich überhaupt Sinn? Oder sitzt man eher einer Scheinkorrelation auf? Trotzdem sind wir hierzulande noch sehr weit weg von einem solchen Szenario.

"Was ist die Idealbesetzung für eine Stelle? Das wissen wir bislang nicht."
Tim Weitzel

ZEIT ONLINE: Warum?

Weitzel: Das Problem ist: Die meisten Unternehmen haben die Daten gar nicht, aus denen ein selbstlernender Algorithmus die Maßstäbe für eine vernünftige Mitarbeitersuche ableiten könnte.

ZEIT ONLINE: Welche Daten bräuchten sie dafür?

Weitzel: Die Firmen müssten viel detaillierter als bislang untersuchen, welche Mitarbeiter im Betrieb wie erfolgreich sind, was die besonders guten Leute auszeichnet, wie sich die Karrieren entwickeln, wer gut ins Team passte und wer nicht. Solche Informationen werden heute kaum systematisch erhoben, wären aber enorm wichtig, damit eine künstliche Intelligenz daraus in einigen Jahren vielleicht einmal gute Einstellungsvorschläge machen kann. Was ist die Idealbesetzung für eine Stelle? Das wissen wir bislang nicht. Die Hoffnung ist, dass wir es durch Daten herausfinden können.

ZEIT ONLINE: Die Einstellung durch den Roboter setzt also den gläsernen Angestellten voraus – ob die Bewerber, die auf den diskriminierungsfreien Computer hoffen, das mitbedenken …

Weitzel: Man kann die Daten ja ohne Probleme anonymisieren, so dass keine Mitarbeiterin und kein Mitarbeiter fürchten muss, übermäßig kontrolliert zu werden. Eine künstliche Intelligenz interessiert nur, ob bestimmte Eigenschaften mit dem Erfolg in einem bestimmten Job zusammenhängen. Ob die Informationen von Lieschen Müller oder Peter Schmitz stammen, ist der Maschine egal.

ZEIT ONLINE: Aber vielleicht nicht dem Chef, wenn er vor der Entscheidung steht, wer entlassen werden soll.

Weitzel: Ich gebe Ihnen recht: Man wird sicher einen verantwortungsvollen Umgang mit den Daten finden müssen, der die Schutzinteressen der Mitarbeiter einbezieht. Aber nur weil es Missbrauch geben könnte, sollten wir die Nutzung der Daten nicht unmöglich machen. Wenn es schon bei der Besetzung ein besseres Matching gibt, profitieren am Ende beide Seiten massiv – Unternehmen und Mitarbeiter.