Richter urteilen vormittags anders als nachmittags, Arbeitgeber trauen Jobkandidatinnen weniger zu als Jobkandidaten, von den Nachteilen derjenigen mit migrantisch klingenden Namen ganz zu schweigen. Menschen fällen oft keine besonders fairen Urteile. Warum also nicht die Computer heranziehen, wenn es um Fragen der Fairness geht? Justitia, die Göttin der Gerechtigkeit, wird oft mit Augenbinde dargestellt, weil sie urteilen soll, ohne die Person anzuschauen. Was läge näher, als ihre Entscheidungen der kalten Vernunft der Technik zu überlassen? Und könnte man damit nicht auch all die Ungerechtigkeiten beseitigen, die die Arbeitswelt durchziehen? 

Fairness durch Algorithmen – das klingt zu schön, um wahr zu sein. Leider ist es das auch. Es hat sich längst herumgesprochen, dass auch Algorithmen diskriminieren können. Ein Fall, der traurige Berühmtheit erlangt hat, kommt aus dem Bereich der Strafjustiz: Wie Journalisten von Pro Publica entdeckten, machte ein Computerprogramm, das Rückfallwahrscheinlichkeiten errechnen und damit Bewährungsentscheidungen unterstützen sollte, für weiße und schwarze Angeklagte unterschiedliche Arten von Fehlern: bei Weißen lag es öfters zu deren Gunsten falsch, bei Schwarzen zu deren Ungunsten. Auch im Arbeitsmarkt können Algorithmen bestehende Diskriminierungen fortschreiben. So wurde vor einigen Jahren bekannt, dass Google Anzeigen für hochbezahlte Führungsjobs öfters Männern als Frauen zeigte. Also alles (so ungerecht) wie früher, nur diesmal digital?

Das wäre ein vorschnelles Urteil – denn man kann zwischen Diagnose und Entscheidung eine klare Linie ziehen. Daten, die über Bewerberinnen und Bewerber, Schwarze und Weiße, Menschen mit und ohne Migrationshintergrund gesammelt werden, können vieles, das vorher schwer nachweisbar war, aufzeigen: die leaking pipelines zum Beispiel, wenn der Anteil benachteiligter Gruppen umso geringer wird, je höher es die Karriereleiter hinaufgeht. Oder auch die Klischees und Vorurteile, die mit bestimmten Merkmalen wie Ethnie und Geschlecht verbunden werden. In ihrem Buch Algorithms of Oppression diskutiert Safiya Umoja Noble, wie Google eine Zeitlang bei Suchen nach "black girls" an erster Stelle pornografische Inhalte zeigte – die waren für zahlende Werbekunden offenbar relevanter als die schädlichen Effekte, die solche Stereotypisierungen auf die Betroffenen haben. Bei der Diagnose von Ungerechtigkeiten können Big Data und Algorithmen eine große Hilfe sein – und sei es nur, um das, was benachteiligte Gruppen sowieso wissen, auf eine Art und Weise zu dokumentieren, die man nicht mehr als anekdotische Einzelfälle abtun kann. 

Nicht jedes Datenmuster sollte fortgeschrieben werden

In allen möglichen Datensätzen, mit denen algorithmische Entscheidungssysteme heute arbeiten, stecken die Ungerechtigkeiten von Jahrzehnten, ja Jahrhunderten. Sie sichtbar zu machen, vielleicht sogar zu quantifizieren, kann sehr sinnvoll sein. Algorithmen dagegen auf der Basis derartiger Datensätze Entscheidungen treffen zu lassen, ist höchst problematisch (von allen Datenschutz-Fragen abgesehen!). Denn nicht jedes Muster, das die Algorithmen in den Daten entdecken, ist es wert, fortgeschrieben zu werden. Werden künstliche Intelligenzen beispielsweise dafür verwendet, die Merkmale von Angestellten zu eruieren, die besonders effizient arbeiten, dann ist nicht klar, was genau alles eingeht, und ob es berechtigt ist, diese Merkmale auch bei zukünftigen Bewerbern als Kriterium anzulegen. Wenn ein Algorithmus findet, dass gute Angestellte oft Brillenträger sind – soll man dann nur noch Leute mit schlechten Augen einstellen? Und was, wenn bestimmte Leute effizienter erscheinen, weil sie besonders geschickt darin sind, sich mit fremden Federn zu schmücken und Erfolge für sich zu verbuchen, die eigentlich aufs Team gehen? 

Bei der Verwendung von algorithmischen Systemen für die Bewerberauswahl – eine vor allem in den USA schon übliche Praxis, die Cathy O’Neil in ihrem extrem lesenswerten Buch Angriff der Algorithmen diskutiert – stellt sich außerdem das Problem, dass die Daten der abgelehnten Bewerber und deren zukünftige berufliche Erfolge oder Misserfolge, in die Datensätze einer Firma nicht eingehen. Das ist, als ob man zu Forschungszwecken Bäumchen pflanzt und sehen will, welche sich gut entwickeln – dann aber nur bei einem Bruchteil der Tranche verfolgt, was aus ihnen wird. Ob eine unfaire Diskriminierung bestimmter Bewerbergruppen erfolgt, die gar nicht erst zu einem persönlichen Bewerbungsgespräch eingeladen werden, bleibt dann unsichtbar. 

Wenn die Leute die Jobs dann haben, könnte man wenigstens ihre Leistungen gerechter erfassen, als das – zumindest gefühlt – oft der Fall ist? Datensammeln in der Arbeitswelt verspricht Fairness durch individualisierte Bewertungen. Aber ist es wirklich wünschenswert, dass von den Tastenanschlägen bis zur Toilettenpause alles mitgeschnitten wird, was den lieben langen Tag im Büro oder in der Werkstatt passiert? Nicht nur Datenschützern wird bei dieser Vorstellung übel, es ist auch höchst fraglich, was man damit wirklich messen würde. Vermutlich würden gewiefte Angestellte schnell verstehen, wie sie die Algorithmen austricksen können. Das wiederum würde die Daten verzerren und möglicherweise andere dazu drängen, ebenfalls der digitalen Optimierung hinterherzulaufen, anstatt ihre eigentliche Arbeit zu machen. Respektvolle, auf Vertrauen basierende Zusammenarbeit sieht anders aus. Hinzu kommt: nicht alle Beiträge zu Teamleistungen lassen sich gleichermaßen gut durch gesammelte Daten erfassen. Was ist mit der Person, die weniger E-Mails schreibt, dafür aber mit ihrem Sinn für Humor die Stimmung und Motivation aufrechterhält? Daumenregeln, die verhindern, dass jemand sich auf dem Rücken anderer ausruht, sind vermutlich oft die bessere Lösung als falsch verstandene Präzision. 

Wir sind soziale Tiere, keine Datenpunkte

Größere Fairness durch algorithmische Entscheidungen, das ist also ein Versprechen, dem man mit extremer Vorsicht begegnen muss. Die Frage danach, was eigentlich fair ist, können uns die Computer sowieso nicht abnehmen. Wie unterschiedliche Beiträge in einem Team bewertet werden, wie das Ineinandergreifen unterschiedlicher Tätigkeiten einzelnen Individuen zugerechnet werden soll, all das kann kein Algorithmus beantworten. Es kann durchaus sein, dass an vielen Stellen die fairste Lösung ist, Leistungen nicht individuell zuzuschreiben, also die Augenbinde der Justitia auch hier ernst zu nehmen – einfach, weil es für den Begriff individueller Leistung keine Grundlage gibt, wenn es das Team ist, das gemeinsam arbeitet. Menschen arbeiten oft dann besonders erfolgreich, wenn komplementäre Fähigkeiten aufeinandertreffen. Und weil diese Fähigkeiten so unterschiedlich sind, können sie erst im Zusammenhang mit jeweils anderen Fähigkeiten anderer Menschen ihr Potenzial entfalten. Wir sind auch in der Arbeitswelt mehr als die Summe von Datenpunkten – wir sind soziale Tiere!