Hat die Lufthansa nach der Pleite von Air Berlin bewusst die Preise erhöht? Der Konzern sagt Nein. Wenn die Tickets teurer würden, liege das an einer automatischen Software, einem Algorithmus also. Das mag stimmen. Nur ist das in etwa so, als würden Sie, liebe Leser, plötzlich deutlich mehr für die ZEIT bezahlen müssen. Und unser Geschäftsführer würde sagen: Sorry, tut mir ja auch leid, aber unser Computerprogramm hat es so berechnet.

Es ist richtig, dass Andreas Mundt, der Präsident des Bundeskartellamts, die Lufthansa mit so einer Ausrede nicht davonkommen lassen will. Unternehmen, sagte er kurz vor Jahresende in einem Interview mit der Süddeutschen Zeitung, dürften "sich nicht hinter Algorithmen verstecken". Und dann sagte er noch einen Satz, der es wert ist, dass man sich etwas ausführlicher mit ihm befasst: "Solche Algorithmen", so Mundt, "werden ja nicht im Himmel vom lieben Gott geschrieben."

Auf den ersten Blick ist der Satz eine Selbstverständlichkeit. Höchstwahrscheinlich sitzt Gott nicht auf einer Wolke und hackt Codezeilen in seinen Laptop. Und doch fallen die Entscheidungen, die Algorithmen treffen, gewissermaßen vom Himmel. Kein Lufthansa-Kunde weiß, wie die Flugpreise berechnet werden, die er bezahlen muss. Der entsprechende "Algo" ist ein Betriebsgeheimnis des Konzerns. Dadurch wird er für jene Menschen, die von seinen Entscheidungen betroffen sind, zu einer Blackbox. Erst werden Daten eingespeist, dann wird kompliziert herumgerechnet, und am Ende steht ein Ergebnis, das sich weder überprüfen noch hinterfragen lässt. Die Wege des Algorithmus sind dann tatsächlich, wie die des Herrn, unergründlich.

Steigende Preise sind ärgerlich. Richtig gruselig aber wird es, wenn Algorithmen, deren Innenleben nur ein paar Eingeweihte kennen, über das Schicksal von Menschen entscheiden. Zum Beispiel darüber, ob sie ihren Job verlieren, eine medizinische Behandlung bekommen oder die nächsten Jahre im Gefängnis verbringen müssen. Klingt nach einer hollywoodreifen Dystopie? Ist es aber nicht. Es ist Realität.

Beispiel eins: Sarah Wysocki war Lehrerin an der MacFarland Middle School in Washington, D. C. Die Beurteilungen vom Schulleiter waren stets hervorragend. Auch die Eltern der Schüler lobten ihre aufmerksame Art. Trotzdem bekam Wysocki am Ende des Schuljahrs 2010/2011 eine miserable Punktzahl. Errechnet hatte den Wert ein Algorithmus. Mit seiner Hilfe wollte die Stadt schlechte Lehrer aussortieren. Als Wysocki wissen wollte, weshalb sie so mies abgeschnitten hatte, sagte man ihr, das sei kompliziert. Entwickelt hatte den Algorithmus nämlich ein externes Beratungsunternehmen. Wie genau es den Erfolg oder Misserfolg der Schüler auf die Qualität der Lehrer zurückführte, hat Wysocki nicht erfahren. Entlassen wurde sie trotzdem. Zusammen mit 205 anderen Lehrern der Stadt, deren Punktzahlen nicht gut genug waren.

Beispiel zwei: In den USA berechnen Algorithmen, wie hoch die Wahrscheinlichkeit ist, dass ein Straftäter rückfällig wird. Heraus kommt eine Zahl, die dieses Risiko ausdrückt. Eine acht steht zum Beispiel für "hohes Risiko". Diese Zahl wird dann herangezogen, wenn ein Richter darüber urteilt, wie lange der Straftäter ins Gefängnis muss. Eine schlechte Bewertung durch den Algorithmus kann dabei ein paar Jahre mehr hinter Gittern bedeuten. Streng genommen liefert der Algorithmus zwar nur eine Entscheidungshilfe. In der Praxis aber verlassen sich die Richter oft auf die Bewertung der Software.

Beispiel drei: Auch das von der Google-Mutter Alphabet mitfinanzierte Unternehmen Aspire Health hat einen Algorithmus entwickelt. Er soll darüber mitentscheiden, ob Schwerkranke noch eine Behandlung bekommen. Vor allem berechnet das Programm die Lebenserwartung des Patienten. Wenn er sowieso bald tot sein dürfte, so das Kalkül, braucht man auch kein Geld mehr für eine Therapie zu verschwenden. Wie genau der Algorithmus über Leben und Tod richten soll, ist aber nicht bekannt. Aspire Health hält den Code geheim.