Algorithmen und künstliche Intelligenz verheißen Beeindruckendes: eine gerechtere, sicherere und effizientere Welt. Sie können weniger diskriminierend als ein Richter bewerten, ob jemand ins Gefängnis gehört oder nicht. Sie schicken die Polizei dorthin, wo wahrscheinlich bald ein Verbrechen geschieht. Und sie lösen Aufgaben, die für uns Menschen zu komplex sind, beispielsweise Zehntausende Schüler ihren Wünschen entsprechend auf Hunderte weiterführende Schulen zu verteilen. Das ist keine Science-Fiction, sondern in Städten wie New York City längst Alltag. Moderne Technologie soll dort der Schlüssel zu einer besseren Gesellschaft sein. Für den Einzelnen kann das aber auch handfeste Nachteile haben.

In Australien verweigert ein automatisierter Sprachtest einer Muttersprachlerin wegen mangelnder Englischkenntnisse die Einwanderungserlaubnis. Der Grund: ihr irischer Akzent. In Florida empfiehlt ein Algorithmus einem Richter, ein 18-jähriges Mädchen nach einem Fahrraddiebstahl in den Knast zu stecken und einen mehrfach verurteilten Räuber in Freiheit zu lassen. Der Grund: die Hautfarbe der Beteiligten. In den USA bietet die Software von Autoversicherungen Verkehrsrowdys günstigere Tarife an als tadellosen Fahrern. Der Grund: Die Versicherungskosten bemessen sich nicht an ihrem Fahrverhalten, sondern an ihrer Kreditwürdigkeit.

Algorithmen setzen den größten Unfug mit maschineller Präzision um. Auch das ist Realität.

Verantwortlich für das Versagen der Algorithmen sind wir Menschen. Wir definieren ihre Ziele, programmieren ihren Code, entscheiden über ihren Einsatz. Deshalb sollten wir auch ihre Wirkung kontrollieren. Das erfordert mehr algorithmische Kompetenz und mehr ethische Verantwortung: Bei Programmierern, die Software erschaffen. Bei Anwendern, die sie nutzen. Und bei Führungskräften, die sie für ihr Unternehmen oder den Staat beauftragen.

Programmierer kommen immer öfter in Situationen, in denen ein moralischer Kompass unverzichtbar ist. Die Dieselabschalteinrichtung ist nur ein Beispiel: Ist es verwerflich, eine Software zu programmieren, die feststellt, ob sich ein Auto auf der Straße oder auf dem Prüfstand befindet? Wenn man die böse Absicht dahinter kennt: natürlich. Nur so war es den Autoherstellern möglich, die Abgasnormen zu umgehen.

Auch professionelle Nutzer müssen Algorithmen kompetent und reflektiert anwenden. Oft handelt es sich um Assistenzsysteme: Am Ende steht ein Arzt, Richter oder Polizist, der ihre Empfehlungen interpretiert und dann eine Entscheidung fällt. Das Vertrauen in den Computer ist dabei häufig groß. Doch wenn diese Anwender die Ziele und die Wirkungsweise der Technologie nicht kennen, schleichen sich Fehler ein. Die Chicagoer Polizei etwa hat in ihrer täglichen Arbeit eine Software nicht wie vorgesehen zur Prävention, sondern zu Ermittlungszwecken genutzt. Potenzielle Verbrechensopfer wurden so zu Verdächtigen gemacht. Der Algorithmus funktionierte, wurde aber falsch eingesetzt.

Noch kokettieren manche Führungskräfte mit fehlendem Technologie-Verständnis. Dabei ist es Teil moderner Führungsverantwortung, ethisch vertretbare Algorithmen zu garantieren. Das bedeutet auch, bei vermeintlich guten Ergebnissen zu prüfen, wie sie zustande kommen und ob sie Nebenwirkungen haben. Es ist verantwortungslos, wenn etwa die Personalchefin eines US-Konzerns sagt, sie wisse nicht, wie ihre Software zur Bewerberauswahl funktioniere, sondern nur, dass sie funktioniere und die Zahl der Kündigungen zurückgehe. In diesem konkreten Fall beruhten die guten Ergebnisse auf einer sozialen und ethnischen Diskriminierung. Das automatisierte Verfahren bevorzugte Mitarbeiter mit kurzem Arbeitsweg und benachteiligte diejenigen Bevölkerungsgruppen, die sich die höheren Wohnkosten rund um den Firmensitz nicht leisten konnten. Wo Maschinen Menschen bewerten und das Urteil von hoher Tragweite ist, müssen wir dessen Kriterien diskutieren und definieren. Warum kommt der eine Schüler auf seine Wunschschule und der andere nicht? Warum kontrolliert die Polizei in dem einen Bezirk häufiger als in dem anderen? Wir tragen die gesellschaftliche Verantwortung dafür, dass Software, die unser Leben bestimmt, richtig funktioniert und andernfalls so korrigiert wird, dass sie ihren Zweck angemessen erfüllt.

Wenn das nicht möglich ist, dürfen wir vor Verboten nicht zurückschrecken. Auch die künstliche Verdummung künstlicher Intelligenz (KI) ist in einer Demokratie ein legitimes Mittel.

Damit Maschinen den Menschen dienen, sollten wir nicht nur in die KI der Maschinen, sondern auch in die algorithmische Kompetenz der Menschen investieren. Ärzte haben den hippokratischen Eid und Journalisten den Pressekodex. Programmierer brauchen ebenfalls eine Professionsethik. Dabei geht es darum, sicherzustellen, dass unsere analogen Normen und Werte auch in der digitalen Welt gelten. Für den Umgang mit Algorithmen sind Prinzipien nötig, etwa klare Kennzeichnung, Nachvollziehbarkeit, Beherrschbarkeit und eindeutige Verantwortlichkeiten.