ZEIT ONLINE: Herr Lutz-Bachmann, künftig wird es Autos geben, die uns das Fahren weitgehend abnehmen. Aber übernehmen die Maschinen dann auch die Verantwortung?

Matthias Lutz-Bachmann: Kein Fahrzeug kann Verantwortung übernehmen. Die Verantwortung trägt faktisch immer der Fahrer oder eben der, der das Fahrzeug programmiert und startet. Eine Mitverantwortung haben aber auch Hersteller und Werkstatt: Das produzierende Unternehmen für das Funktionieren der eingebauten Systeme, die Werkstatt für die Kontrolle des Zustands des Autos. Insofern sind immer nur Menschen verantwortlich – auch bei automatisierten Fahrzeugen.

ZEIT ONLINE: Der Gesetzesentwurf zum automatisierten Fahren sieht vor, dass der Fahrer immer in das System eingreifen können soll. Sich zurücklehnen und E-Mails lesen, das ginge also auch in einem vollautomatisierten Auto nicht.

Lutz-Bachmann: Wir wissen nicht, ob wir am Ende wirklich bei diesem Ideal landen: Ich gebe das Ziel ein und das Fahrzeug bestimmt Weg, Geschwindigkeit und Fahrverhalten. Bis dorthin liegen noch 30 bis 50 Jahre und viele technologische Stufen vor uns. Bis jetzt ist nicht absehbar, dass der Fahrer sagt: Ich mach dann mal die Augen zu und lass das System das Fahren für mich organisieren. Das ist noch immer Science-Fiction.

Es gibt aber heute in einigen Fahrzeugen bereits selbststeuernde Systeme, insbesondere im Lkw-Bereich. Mit diesen gemischten Systemen werden wir auch künftig zu tun haben. Für sie gilt, was bisher auch immer galt: Der Fahrer muss in die Steuerung eingreifen können, weil Situationen auftreten können, die nicht vorhersehbar sind. Er muss letztlich entscheiden, wie er handelt. Was in 50 Jahren kommt, wissen wir nicht.

ZEIT ONLINE: Gehen wir hypothetisch davon aus, dass die Technologie in 50 Jahren so weit ist, dass das Auto komplett autonom fahren und Unfälle verhindern kann. Selbst dann ist fraglich, inwieweit sich der Fahrer der Verantwortung entziehen kann – zumindest auf einer moralischen Ebene. 

Lutz-Bachmann: In der Tat und darauf gibt es keine eindeutige und klare Antwort. Jeder, der sich in ein selbstbewegtes Fahrzeug setzt, steht in einer, wenn auch geteilten, Verantwortung und übernimmt ein Risiko, das er nicht übernehmen würde, würde er anders reisen. Wir entscheiden uns ja für ein bestimmtes System. Das ist niemals ethisch neutral.

Nehmen Sie ein Beispiel: Sie sitzen im Zug, haben die Augen zu und irgendetwas passiert. Da können Sie gar nicht eingreifen. Sie haben keine moralische – und schon gar keine rechtliche – Verantwortung. Das steigert sich, je stärker Fahrzeuge automatisiert betrieben werden, Züge, Flugzeuge etc. Diese Möglichkeit, Verantwortung abzugeben, haben Sie im individualisierten öffentlichen Verkehr jedoch nicht. Ich bin sicher, wir werden in vielen klassischen Dilemma-Situationen enden und mit der Frage konfrontiert werden: Übernehmen wir oder lassen wir das System selbst steuern?

ZEIT ONLINE: Das heißt, es geht momentan vielmehr um eine Unterstützung des Fahrers als um eine komplette Übernahme?

Lutz-Bachmann: Im Moment ja. Das ist für die nächsten 30 Jahre sicher das Programm, mit dem sich Bereiche wie die Industrie, Technik und Verkehrssteuerung beschäftigen werden. Wir sind eine massenhaft mobile Gesellschaft und müssen die Verkehrssysteme dieser Massenmobilität entsprechend anpassen.

ZEIT ONLINE: In dem Papier der Ethikkommission steht, dass bei möglichen Unfällen nicht nach Körpermerkmalen unterschieden werden soll, zum Beispiel nach Alter oder Geschlecht. Ist das so ein Punkt, an dem der Fahrer wieder in das Geschehen eintritt und entscheiden muss, wen fahre ich eher um: die junge Familie oder den Rentner rechts von mir?

Lutz-Bachmann: Ja, das geschieht ja leider heute schon. Das macht ja Dilemma-Situationen aus, dass Sie egal, wie sie sich entscheiden, nicht ohne Schuld bleiben. Da kommen dann Abwägungen anderer Art ins Spiel, wir haben das lange intern diskutiert und es gab keinen wirklich tiefen Konsens, sondern nur einen vorläufigen. In diesem Fall wäre es unter bestimmten Umständen gegebenenfalls vertretbar, lieber weniger als mehr Menschen zu schädigen. Aber auch derjenige, der sich selbst ans Steuer setzt, muss überlegen, ob er sich nicht selbst opfern muss, wenn es die Situation verlangt. Denn er hat sich als Fahrer ans Steuer gesetzt und nicht die Mutter mit dem Kinderwagen, die zufällig auf der Straßenseite steht.

ZEIT ONLINE: Entscheidet dann das Fahrzeug, ob der Fahrer sich selbst opfern sollte, oder muss er das schon selber tun?

Lutz-Bachmann: In unserem Bericht haben wir dazu nur festgestellt, dass diese kontextabhängigen Probleme kaum programmierbar sind, weil das Algorithmen verlangt, die wir im Moment nicht abschätzen können. Deswegen wäre das ein typischer Fall, in dem der Fahrer Verantwortung übernehmen muss.