Was sollte ein selbstfahrendes Auto im Fall einer unvermeidbaren Kollision tun: links in eine Gruppe von Fußgängern rasen, wobei die Autoinsassen überleben würden, oder rechts den Wagen gegen eine Wand lenken und den Tod der Insassen in Kauf nehmen? Mit dieser ethischen Frage befassen sich Autoingenieure, Juristen, Fachleute bei Versicherungsfirmen und Fachpolitiker seit geraumer Zeit, schließlich rückt der Zeitpunkt näher, an dem Fahrzeuge der Autonomiestufen 4 und 5 (vollautomatisiertes Fahren und fahrerloses Fahren) auf den Markt kommen.

Das Dilemma ist nicht leicht zu klären. Das hat etwa im Sommer eine Studie gezeigt, für die Forscher knapp 2.000 Probanden in einer Umfrage vor die moralisch schwierige Frage stellten. Das interessante Ergebnis: Die meisten finden, das selbstfahrende Auto solle notfalls auch das Leben der Insassen opfern, wenn sich dadurch weitere Tote verhindern lassen. Es ist jedoch nicht verwunderlich, dass dieselben Leute aber lieber einen Pkw kaufen würden, der unter allen Umständen das eigene Leben über das der anderen stellt.

Jetzt hat sich der Abteilungsleiter für Aktive Sicherheit im Daimler-Konzern, Christoph von Hugo, in die Diskussion eingeschaltet und hat gegenüber dem US-Magazin Car and Driver die Ansicht vertreten, ein autonomes Auto sollte bei einem Unfall im Zweifel immer die Insassen schützen. Von Hugos Argument: Auch wenn man das Auto opfern würde, wisse man in einer komplexen Unfallsituation noch nicht, was mit den Menschen passiere, die man ursprünglich gerettet habe. Durch die Folgen des Ausweichmanövers könnten die Geretteten nachträglich doch noch zu Schaden kommen.

Mit der Aussage hat von Hugo sich und seinen Arbeitgeber in die Bredouille gebracht. Bei Daimler beeilte man sich zu betonen, dass von Hugo hier falsch dargestellt worden sei: Keinesfalls habe man schon eine Entscheidung etwa zu Gunsten der Fahrzeuginsassen getroffen.

Dabei sollte es auch bleiben. Die Entscheidung darüber, wie die autonomen Fahrzeuge für das Verhalten in derlei kritischen Unfallsituationen programmiert werden, darf auf keinen Fall den Autoherstellern allein überlassen werden. Dafür ist die Frage gesellschaftlich viel zu relevant. Es ist Sache des Gesetzgebers, hierfür klare Vorgaben zu machen.

Gewiss, wir sprechen hier von Extremlagen, die im Idealfall gar nicht vorkommen sollten. Auch Wissenschaftler, die sich mit den selbstfahrenden Autos befassen, räumen ein, dass wohl extrem selten eine Entscheidung auf Leben und Tod zu fällen sei. Und von Hugo hat recht, wenn er darauf hinweist, dass der Fokus der technischen Entwicklung gerade darauf liege, zu verhindern, dass die Autos überhaupt in solche Dilemmasituationen geraten.

Dennoch muss auch dafür eine Lösung gefunden werden. Das Bundesverkehrsministerium hat dazu kürzlich eine Ethikkommission unter Leitung des früheren Verfassungsrichters Udo Di Fabio eingesetzt, die Leitlinien für die Programmierung autonomer Fahrzeuge ausarbeiten soll. Diese Leitlinien müssen konform sein mit dem Grundgesetz, konkret mit der Garantie der Menschenwürde in Artikel 1. Schon vor zehn Jahren entschied das Bundesverfassungsgericht, dass Menschenleben nicht gegeneinander aufgewogen werden dürfen. Damals ging es um die Frage, ob ein von Terroristen gekapertes Passagierflugzeug abgeschossen werden dürfe. Die Frage ist noch immer aktuell, wie der TV-Film Terror an diesem Montagabend in der ARD zeigt.

Für die Autohersteller und die neuen Player in dem Bereich – etwa Google – ist die Debatte natürlich unangenehm: Sie versuchen ihr aus dem Weg zu gehen und darauf zu verweisen, dass es in erster Linie um Unfallvermeidung gehe und dass die selbstfahrenden Autos auf jeden Fall die Zahl der Unfalltoten verringern werde. Das bezweifeln auch Fachleute nicht.

Doch schon jetzt ist klar, dass bei den ersten Toten die Anwälte die Hersteller mit Klagen überziehen werden. Das zeigen schon die Unfälle mit dem Tesla-Autopiloten. Darum muss die Debatte um die Moral des autonomen Fahrens bereits geführt werden. Das mag die Einführung dieser Fahrzeuge verzögern, was den Herstellern sicher nicht gefällt. Doch langfristig dürfte der Erfolg der Roboterautos davon abhängen, ob die ethische Frage geklärt ist und ob die Antwort darauf gesellschaftlich akzeptabel ausfällt.