Wir haben den Institutsparkplatz verlassen und stehen an der Einmündung zur dicht befahrenen Hauptstraße. Feierabendverkehr, keine Lücke in Sicht. Eigentlich müssten wir uns jetzt langsam vortasten, Blickkontakt zu den Fahrern auf der Hauptstraße aufnehmen und auf eine freundliche Handbewegung warten, die uns den Weg freigibt. Doch unser Fahrer beherrscht weder Blicke noch Gesten. Den grauen Passat, in dem wir sitzen, steuert ein Computer. Statt auf Augen und Ohren ist er auf Kameras angewiesen sowie auf einen Radarsensor in der Stoßstange, aus seinem Dach ragt ein auffälliger Laserscanner.

Auf der Rückbank, neben dem Reporter, sitzt Markus Maurer, er leitet die Arbeitsgruppe Elektronische Fahrsysteme an der TU Braunschweig. Dort wurde der Passat zum Versuchsfahrzeug ausgebaut, es hört auf den Namen Leonie. Die Wissenschaftler nutzen Leonie, um unterschiedliche Techniken für selbstfahrende Autos zu entwickeln und im normalen Verkehr zu erproben. Doch um die Technik soll es heute nicht gehen. Wir sind unterwegs, um über Ethik zu sprechen.

"Automatisiertes und vernetztes Fahren" hieß die Kommission, die der Bundesverkehrsminister beauftragt hatte, sich mit den ethischen Fragen rund um künftige Auto-Autos zu befassen (siehe Kasten). Im Sommer haben die Experten 20 Ethikregeln vorgelegt und diese auf 30 Seiten begründet. Die kursiven Passagen in diesem Artikel sind wörtliche Zitate daraus. Oft klingen sie sperrig – wir wollen wissen, wie praxistauglich diese Regeln sind. Was kann ein Entwicklungsingenieur damit anfangen?

Um das zu erfahren, stehen wir jetzt im Braunschweiger Feierabendverkehr und warten auf eine Lücke, damit wir uns endlich in die Hauptstraße einfädeln können. Vergeblich. Computer brauchen klare Regeln, und sie halten sich auch daran. Leonie weiß, dass der Verkehr auf einer Hauptstraße Vorfahrt hat, und bleibt stehen – ganz korrekt im Sinne der Ethikregeln:

"Der Schutz von Menschen hat Vorrang vor allen anderen Nützlichkeitserwägungen. Ziel ist die Verringerung von Schäden bis hin zur vollständigen Vermeidung." (Regel Nr. 2)

Der sicherste Verkehr ist einer, der stillsteht. In diesem Sinne befolgt Leonie die Ethikregel perfekt. Doch hinter uns hat sich längst eine Schlange gebildet. "Da steht dann die Sicherheit gegen die Leistungsfähigkeit des Verkehrssystems", sagt Markus Maurer. Wir behelfen uns mit einem menschlichen Eingriff. Hinter dem Lenkrad sitzt dafür Jens Rieken, Mitentwickler und heute auch Leonies Sicherheitsfahrer. Ein solcher ist weltweit vorgeschrieben, sobald ein selbstfahrendes Testfahrzeug im normalen Verkehr unterwegs ist. Videos, die einen leeren Fahrersitz zeigen, sind entweder illegal entstanden oder – wie im Fall des knuffigen Google-Kugelautos – auf einem abgesperrten Testgelände.

Jens Rieken fährt uns auf die Hauptstraße. Dann übernimmt Leonie wieder Lenkrad, Gaspedal und Bremse. Sie steuert uns sicher durch den Verkehr, bremst, wenn vor ihr gebremst wird, wechselt die Spur, wenn einparkende Autos die Fahrbahn blockieren. Doch plötzlich meldet sich der Computer mit einem Piepton. Ein Sensor ist ausgefallen, Jens Rieken greift ans Lenkrad. Selbstfahrende Autos können schon sehr viel, bis sie aber wirklich alle Situationen sicher bewältigen – auch wenn zum Beispiel Verkehrsschilder im Schneegestöber nicht mehr zu erkennen sind oder ein Stau dazu zwingt, rückwärts aus einer Einbahnstraße herauszufahren –, wird noch sehr viel Zeit vergehen. Bis dahin muss es eine reibungslose Übergabe vom Menschen an die Maschine und wieder zurück geben. Die Ethikkommission hat eine Regel dafür aufgestellt:

"Software und Technik hochautomatisierter Fahrzeuge müssen so ausgelegt werden, dass die Notwendigkeit einer abrupten Übergabe der Kontrolle an den Fahrer ('Notstand') praktisch ausgeschlossen ist. Um (...) Überforderung zu vermeiden, müssen sich die Systeme stärker dem Kommunikationsverhalten des Menschen anpassen und nicht umgekehrt erhöhte Anpassungsleistungen dem Menschen abverlangt werden." (Regel Nr. 17)

"Das ist eine sehr hohe Anforderung", sagt Markus Maurer. An das sogenannte hoch automatisierte Fahren, bei dem das Auto über lange Strecken selbstständig unterwegs ist, in Extremsituationen dann aber urplötzlich Unterstützung braucht, glaubt der Ingenieur höchstens für seltene Ausnahmefälle, zum Beispiel im Stau. Schon 1995 war Maurer mit einem Versuchsauto von Bayern bis nach Dänemark gefahren – 1.678 Kilometer davon automatisch. Hoch konzentriert bei der Sache sei er aber gewesen, erinnert er sich. Lassen sich hingegen normale Fahrer kutschieren, werden sie schnell unaufmerksam. "Und wir wissen aus Studien von Ergonomen, dass verschiedene Menschen dann sehr unterschiedlich lange für die Rückkehr zu voller Aufmerksamkeit brauchen", sagt Maurer, "manche schaffen es in ein paar Sekunden, bei anderen kann es sehr viel länger dauern." Wie soll ein Auto-Auto damit umgehen?

Viele Übergaben ließen sich vermeiden, wenn das Auto permanent drahtlos mit allen anderen Fahrzeugen in der Nähe und mit Verkehrsschildern, Ampeln und Sensoren unter der Fahrbahn verbunden wäre (Fachleute sprechen von Car-to-Car- beziehungsweise Car-to-Infrastructure-Kommunikation). Leonie hätte sich dann beim Einbiegen auf die Hauptstraße automatisch von einem anderen Fahrzeug Vorfahrt geben lassen können. Denkbar wäre auch, Auto-Autos in komplizierten Verkehrssituationen von einer Leitstelle aus fernzusteuern. Von alldem hält die Ethikkommission wenig:

"Eine vollständige Vernetzung und zentrale Steuerung sämtlicher Fahrzeuge im Kontext einer digitalen Verkehrsinfrastruktur ist ethisch bedenklich, wenn und soweit sie Risiken einer totalen Überwachung der Verkehrsteilnehmer und der Manipulation der Fahrzeugsteuerung nicht sicher auszuschließen vermag." (Regel Nr. 13)

Es ist schon interessant, dass die Ethiker den Sorgen um den Datenschutz und vor Hackern so viel Gewicht einräumen. "Wir glauben deshalb, dass bordautonome Sensorik der richtige Weg zur Automatisierung ist", sagt Markus Maurer. "Das ist allerdings komplizierter und wird wohl auch noch länger dauern als eine vollständige Vernetzung."

Leonie erkennt noch keine Zebrastreifen

Wenn das Auto dann allerdings alle Entscheidungen selber trifft und der Mensch zum einflusslosen Passagier wird, wäre das wohl der nächste ethische Verstoß:

"In einer freien Gesellschaft erfolgt die gesetzliche Gestaltung von Technik so, dass ein Maximum persönlicher Entscheidungsfreiheit in einer allgemeinen Entfaltungsordnung mit der Freiheit anderer und ihrer Sicherheit zum Ausgleich gelangt." (Regel Nr. 4)

Schwer vorzustellen, wie maximale Entscheidungsfreiheit in einem selbstfahrenden Auto aussehen kann – abgesehen davon, dass die Passagiere vor Fahrtbeginn ihr Ziel bestimmen und unterwegs auch wieder ändern können. Vielleicht sei eine gewisse Individualisierung denkbar, sagt Maurer, "zum Beispiel über die Möglichkeit, das Auto auf Wunsch besonders schnell oder besonders defensiv fahren zu lassen". Das wäre dann auch eine Möglichkeit für Auto-Auto-Hersteller, sich von Konkurrenten zu unterscheiden. Den Vorstellungen der Ethikkommission würde das jedoch zuwiderlaufen:

"Die erhebliche Steigerung der Verkehrssicherheit ist Entwicklungs- und Regulierungsziel, und zwar bereits in der Auslegung und Programmierung der Fahrzeuge zu defensivem und vorausschauendem, schwächere Verkehrsteilnehmer schonendem Fahren." (Regel Nr. 5)

Wir sind inzwischen auf dem vier- bis sechsspurigen Braunschweiger Stadtring unterwegs, Leonies Tachonadel zeigt exakt 50 km/h. Die Folge: Wir werden häufig überholt – links und einmal sogar rechts. Besonders sicher erscheint das nicht. Maurer stimmt zu: "Dass wir uns strikt an alle Verkehrsregeln halten, kann die Unfallgefahr erst einmal erhöhen. Doch sobald viele automatisierte Fahrzeuge in der vorgeschriebenen Geschwindigkeit unterwegs sind, wird der Verkehr insgesamt langsamer und entspannter."

50 Meter vor uns taucht ein Zebrastreifen auf. Eine Seniorin steht auf einer Verkehrsinsel in der Mitte der Straße, offenbar will sie jetzt unsere Fahrbahn queren. Leonie bremst nicht, auf das Erkennen von Zebrastreifen ist sie noch nicht programmiert. Doch selbst wenn: Woher sollte sie wissen, dass die Person, die sie auf der Verkehrsinsel erkennt, in unserer Richtung über die Straße will? Menschen können so etwas recht gut einschätzen, automatisierte Systeme aber kaum. "Ich habe immer zwei Unsicherheiten, die zu Unfällen führen können", sagt Maurer: "Ich muss wissen, wo die anderen Verkehrsteilnehmer gerade sind, und ich muss wissen, was sie vorhaben." Und weil das – insbesondere bei Kindern, die zum Beispiel plötzlich einem Ball hinterherlaufen – nie sicher vorherzusagen ist, wird es auch mit Auto-Autos Unfälle geben.

Im Zweifel muss sich die Automatik dann zwischen mehreren Übeln entscheiden: die Rentnerin auf dem Zebrastreifen überfahren, in einen parkenden Porsche am Straßenrand krachen oder auf den Bürgersteig ausweichen, auf dem Kinder spielen? So lautet eine der typischen Dilemma-Situationen, über die sich Dobrindts Ethiker viele Gedanken gemacht haben.

"In Gefahrensituationen, die sich bei aller technischen Vorsorge als unvermeidbar erweisen, besitzt der Schutz menschlichen Lebens in einer Rechtsgüterabwägung höchste Priorität. Die Programmierung ist deshalb im Rahmen des technisch Machbaren so anzulegen, im Konflikt Tier- oder Sachschäden in Kauf zu nehmen, wenn dadurch Personenschäden vermeidbar sind." (Regel Nr. 7)

Der Porsche ist als Erstes fällig, klar. Was aber, wenn es um Rentnerin oder Kinder geht?

"Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt. Eine Aufrechnung von Opfern ist untersagt. Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein. Die an der Erzeugung von Mobilitätsrisiken Beteiligten dürfen Unbeteiligte nicht opfern." (Regel Nr. 9)

Ein Auto-Auto soll im Zweifel also lieber eine Einzelperson umfahren als eine Gruppe. Ausweichmanöver, die Menschen jenseits der Fahrbahn gefährden, sind gar nicht vertretbar. Stehen aber sowohl eine Rentnerin als auch ein Kind auf der Straße im Weg, darf das Auto-Auto nicht so programmiert sein, dass es tut, was jeder Mensch in dieser Situation machen würde, nämlich blitzschnell den einen Schaden gegen den anderen abwägen.

Was der Entwicklungsingenieur damit anfängt? Maurer bleibt zurückhaltend: "Wir nehmen das zur Kenntnis, aber wir maßen uns nicht an, das Dilemma auflösen zu können."

Plötzlich versperrt eine Baustelle die Rechtsabbiegerspur, die wir eigentlich nehmen müssten. Leonie piept irritiert, sie orientiert sich an einer exakten Karte, auf der die kurzfristige Änderung nicht eingetragen ist. Sicherheitsfahrer Rieken muss wieder übernehmen. Die sichere Erkennung kleiner Objekte auf oder neben der Fahrbahn, die Interpretation menschlicher Absichten und das Verhalten in uneindeutigen Situationen – technisch sind das derzeit die größten Herausforderungen für Auto-Auto-Entwickler. Lösungen sind aber möglich, davon ist Markus Maurer überzeugt. "In Teilaspekten sind Maschinen inzwischen sogar schon besser als Menschen, zum Beispiel bei der Einschätzung von Abstand und Geschwindigkeit und bei der dauerhaften Aufmerksamkeit."

Da liegt natürlich die Vermutung nahe, dass einst, wenn die Technik dem fehlbaren Menschen erst einmal überlegen ist, das Selberfahren verboten wird. Im Sinn der Ethiker wäre das nicht:

"Als Ausdruck seiner Autonomie steht es dem eigenverantwortlichen Menschen frei, technische Möglichkeiten wahrzunehmen. Dabei ist es Bestandteil der Handlungsfreiheit, auch gewisse Möglichkeiten nicht wahrzunehmen."

Aber steht diese Wahlfreiheit nicht im Widerspruch zum Ziel eines möglichst sicheren Verkehrs? Und was wird aus den Fahrkünsten, aus dem Orientierungsvermögen der Menschen, wenn Auto-Autos sie von A nach B kutschieren? Viele Fragen lassen die 20 Regeln der Ethikkommission offen. Einige hat sie sogar selbst formuliert:

"Droht mit der Automatisierung und Vernetzung des Straßenverkehrs ein gesellschaftlicher Paternalisierungsschub, wenn den automatisiert-vernetzten Verkehrssystemen nicht mehr durch individuelle Entscheidung ausgewichen werden kann und Verkehrsströme umfassend gelenkt werden?"

Leonie hat uns sicher auf den Institutsparkplatz zurückgebracht. Die Testfahrt hat gezeigt, wie viele Verkehrssituationen die automatische Steuerung bereits beherrscht – und welche noch nicht, ja, welche sie womöglich nie beherrschen wird. Wann also ist der richtige Zeitpunkt gekommen, um Auto-Autos ohne Sicherheitsfahrer in den normalen Verkehr zu entlassen?

Rein technisch lässt sich diese Frage nicht beantworten. "Wir brauchen eine gesellschaftliche Debatte über die Folgen und Nebenwirkungen der Automatisierung", sagt Markus Maurer. Jetzt klingt er fast so wie die Ethikkommission:

"Die Öffentlichkeit hat einen Anspruch auf eine hinreichend differenzierte Aufklärung über neue Technologien und ihren Einsatz." (Regel Nr. 12)