Die meisten Leute finden, selbstfahrende Autos sollen sich moralisch verhalten – und notfalls auch das Leben des Fahrers opfern, wenn sich dadurch weitere Tote verhindern lassen. Kaufen würden sie aber lieber ein Fahrzeug, das ihr eigenes Leben über das aller anderen stellt. Das geht aus einer neuen Studie hervor, die im Fachmagazin Science veröffentlicht wurde.

Dieses Dilemma könnte dem Erfolg der neuen Technik nachhaltig schaden. Die Studienergebnisse befeuern die Debatte um das autonome Fahren, die durch den tödlichen Unfall eines Tesla Model S, der bei eingeschaltetem Autopiloten mit einem Lkw kollidierte, gerade ohnehin verstärkt geführt wird. 

Forscher der Universität Toulouse, des Massachusetts Institute of Technology (MIT) und der Universität von Kalifornien hatten knapp 2.000 Probanden in einer Onlineumfrage vor moralisch schwierige Fragen im Zusammenhang mit autonom fahrenden Fahrzeugen gestellt. Zum Beispiel musste das wohl klassischste Dilemma-Szenario für Roboterautos bewertet werden: Ein autonomes Fahrzeug rast auf eine Menschenmenge zu. Entweder fährt es mitten hinein und tötet die Passanten. Oder es weicht aus, prallt gegen eine Barriere und tötet seinen Insassen.

Für ein Großteil der Befragten war klar, wie ein Auto in solch einer Situation programmiert sein sollte: Rund drei Viertel würden lieber den einen Mensch opfern als die ganze Menschenmenge. Das nahezu gleiche Ergebnis gab es, als die Befragten annehmen sollten, sie selbst oder Mitglieder ihrer Familie säßen im Fahrzeug. Der Großteil der Probanden wählte also eine rationale Lösung, orientierte sich an der Zahl der Opfer und versuchte, diese möglichst gering zu halten.

Das zeigt sich auch an der Antwort auf die Frage, ob das Leben des Fahrers auch für lediglich einen Passanten geopfert werden sollte. Diese beantworteten nur 23 Prozent der Befragten mit Ja.

Jeder Zweite entscheidet doch egoistisch

Doch Einsicht und die Einigung auf ein gesellschaftlich erwünschtes Handeln schlagen sich nicht zwangsläufig im Handeln des Einzelnen nieder. Denn als die Forscher den Probanden die Frage nach den eigenen Fahrzeugwünschen stellten, war die Antwort ähnlich eindeutig – allerdings in die komplett andere Richtung. Lediglich 19 Prozent würden das rational abwägende Auto wählen; 50 Prozent wollen das Auto, das unter allen Umständen ihr eigenes Leben schützen würde. Auch wenn die Befragten also zustimmen, dass autonome Autos bei einem Unfall so viele Leben wie möglich retten sollten: Für sich selbst würden sie solch ein Fahrzeug nicht wollen.

Derartige soziale Dilemmata sind nicht selten. Auch wenn die Gesellschaft als Ganzes von moralisch richtig entscheidenden Autos profitieren würde, wählt das Individuum den Weg, der ihm die größten Chancen ermöglicht. In diesem Fall die Chance, einen Unfall zu überleben.

Die Mehrheit der Befragten spricht sich angesichts dessen generell gegen eine Regulierung des Entscheidungsalgorithmus im autonomen Auto aus, sei es durch Regierung oder Fahrzeughersteller. Bislang ist noch nicht entschieden, wer künftigen autonomen Fahrzeugen ihre Entscheidungslogik einpflanzt. Diese Frage zählt zu den zahlreichen juristischen, technischen und gesellschaftlichen offenen Punkten, die vor dem endgültigen Start des autonomen Fahrens noch zwischen Industrie, Politik und Kundschaft geklärt werden müssen.

Wer soll's regeln?

Ethische Fragen haben dabei durchaus große Relevanz, auch wenn sie auf den ersten Blick konstruiert erscheinen mögen. Die Wissenschaftler geben zu, dass autonome Autos wohl extrem selten vor derartige Entscheidungen auf Leben und Tod gestellt werden. Allerdings steige die Wahrscheinlichkeit eines derartigen Falles mit der Zahl der Fahrzeuge. Und die soll langfristig weltweit in die zig Millionen gehen.

Die Forscher ziehen aus ihrer Studie einen wichtigen Schluss: Eine Regulierung der Entscheidungsfindung ist möglicherweise aus gesellschaftlicher Sicht notwendig, dürfte den Erfolg des autonomen Autos jedoch verzögern. Die potenzielle Kundschaft wird wohl misstrauisch auf Fahrzeuge reagieren, die ihr Leben im Zweifelsfall absichtsvoll opfern würden. Eine Verzögerung auf dem Weg zum autonomen Fahren wiederum würde ebenfalls Menschenleben kosten: Denn solange es nicht autonom fahrende Autos gibt, wird auch die Zahl der Verkehrstoten hoch bleiben.