Seit 2016 läuft sie bereits, fast 40.000 Menschen haben an ihr teilgenommen: die Online-Umfrage "Moral Machine" des renommierten Massachusetts Institute of Technology (MIT). Ihr Ziel ist es, unsere moralischen Intuitionen anhand von dramatischen Entscheidungsszenarien zu erforschen. Ein Beispiel: Bei einem selbstfahrenden Auto versagen die Bremsen und es gibt nur zwei Möglichkeiten: Soll es gegen eine Mauer fahren, wodurch die Insassen sterben, oder soll es drei Kinder zu Tode fahren, die gerade aus der Schule kommen? Macht es einen Unterschied, wenn die Kinder bei Rot über die Ampel gehen? Oder wenn das Auto ein Baby an Bord hat? Das Szenario ist nicht aus der Luft gegriffen.

Dieser Artikel stammt aus dem "Philosophie Magazin" Nr. 04/2018. © Philosophie Magazin

Mit der bevorstehenden Zulassung selbstfahrender Autos auf unseren Straßen müssen wir uns einem Problem stellen, das 1967 von Philippa Foot formuliert wurde und in der angloamerikanischen Ethikdebatte seitdem als Trolley-Problem bekannt ist. Eine Straßenbahn rast auf fünf Menschen zu. Sie können jedoch eine Weiche umstellen, sodass die Bahn nur einen Menschen töten würde. Würden Sie das tun, auch wenn Sie damit für diesen einen Tod verantwortlich wären? Die meisten Menschen antworten mit Ja. Betrachten wir nun folgende Variante: Sie können die Straßenbahn stoppen, indem Sie einen stark übergewichtigen Mann auf die Gleise stoßen. Würden Sie das auch tun? Die meisten Menschen lehnen dies ab, obwohl das Ergebnis dasselbe wäre. Das beweist, dass wir nicht vollkommen "konsequenzialistisch" denken, also unser moralisches Urteil über eine Handlung nicht allein an ihrem Resultat, ihren Konsequenzen ausrichten.

Baby, you can’t drive my car

Einer der maßgeblichen Entwickler des MIT-Tests, Jean-François Bonnefon, ist Professor an der Toulouse School of Economics und forscht im Bereich der kognitiven Psychologie. Ich kontaktiere ihn und konfrontiere ihn mit einem Problem – nämlich der Tatsache, dass es uns Menschen im Zweifelsfall eher um das eigene Wohl beziehungsweise das Wohl unserer Nächsten geht, Maschinen aber, ganz utilitaristisch, das größtmögliche Glück der größtmöglichen Zahl im Visier haben. Konkret: Wenn Google morgen ein Fahrzeug auf den Markt bringen würde, das darauf programmiert ist, in bestimmten Situationen gegen eine Mauer zu fahren, würde ich es nur höchst widerwillig nutzen und niemals meine Kinder hineinsetzen.

Wird die Bereitschaft, auf selbstfahrende Autos umzusteigen, nicht davon abhängen, dass sie garantiert immer ihre Insassen retten, selbst wenn es unmoralisch ist? "Sie fahren offenbar lieber selbst", antwortet Bonnefon. "Aber angenommen, durch ein selbstfahrendes Auto sinkt das Unfallrisiko um den Faktor zehn, fünf oder auch nur zwei, hätte es dann nicht etwas Irrationales, auf diesen Vorteil zu verzichten, nur weil Sie eine extrem seltene Situation fürchten? Hätten Sie nicht im Gegenteil die moralische Pflicht, Ihre Kinder vor den Gefahren zu schützen, die Ihr eigenes Fahren mit sich bringt?"

Bin ich also der Einzige, dem der Gedanke, in einem Vehikel zu sitzen, das mich töten kann, wenn es dafür zwei Menschenleben rettet, Angst bereitet? Diese Frage stelle ich Nicholas Evans, Philosophieprofessor an der Universität Lowell (Massachusetts); er hat mit einem Forscherteam gerade 556.000 Dollar von der National Science Foundation dafür erhalten, einen Algorithmus zu entwickeln, der das Trolley-Dilemma lösen soll. Der Markterfolg von SUVs, bemerke ich, beruht besonders bei Familienvätern darauf, dass solche fahrenden Kolosse praktisch jedes Hindernis zermalmen – was vielleicht nicht besonders altruistisch, aber sehr beruhigend ist. "Nehmen wir an", kommentiert Evans, "Sie seien ein Utilitarist und Konsequenzialist. Sie wollen das Wohl der größtmöglichen Zahl von Personen steigern, nicht wahr?

Eine Welt, in der sich alle mit selbstfahrenden Autos fortbewegen, erscheint Ihnen folglich unterstützenswert. Schließlich gäbe es dann rund 90 Prozent weniger Unfälle. Allerdings wissen Sie, dass es eine solche Welt nur dann geben wird, wenn diese Fahrzeuge in jedem Fall ihre Insassen schützen, denn sonst würden sich die Menschen weigern, in sie einzusteigen. Ein kohärenter Utilitarist wird es akzeptieren, dass wir in diesem Fall einer nicht verhandelbaren deontologischen Regel folgen – die Autos schützen immer ihre Insassen, weil dies unserer ethischen Gesinnung entspricht –, um das allgemeine Wohl zu steigern. Das nennt man self-effacing utilitarianism: sich selbst aufhebenden Utilitarismus. Um ein streng utilitaristisches Ziel zu erreichen, ist es manchmal rational, eine deontologische Regel zu akzeptieren." 

Jean-François Bonnefon sieht dies anders: "Als Psychologe denke ich, dass wir eine grundlegende Heuchelei bekämpfen müssen. Bestimmte moralische Entscheidungen sind schmerzhaft, wir denken ungern über sie nach. Deshalb vertreten wir die Auffassung, es gebe halt Zufälle, das gehöre zur menschlichen Existenz. Mit einer gewissen Feigheit sagen wir uns: 'Wir brauchen keine systematische Herangehensweise. Wenn eine Extremsituation eintritt, werden wir schon sehen, je nach der Eingebung, die wir in dem Augenblick haben.' Das Problem, das selbstfahrende Autos aufwerfen – und das ich persönlich für eine Chance halte –, ist, dass sie uns zwingen, die Karten auf den Tisch zu legen. Wir müssen uns über Prinzipien verständigen, die Fälle identifizieren, in denen sie nicht befriedigend sind, und diese Fälle diskutieren und klären. Wir müssen uns also in eine Grauzone begeben, die wir bislang lieber gemieden haben."