Angenommen, man sitzt in einem Auto, das von einem Computer gesteuert wird. Eines von denen, die gerade von Google entwickelt werden. Angenommen, man fährt mit diesem Auto auf einer zweispurigen Straße durch eine große Stadt. Rechts neben dem Auto fährt ein Radfahrer, links ein Motorradfahrer. Angenommen, eine Gruppe Kinder rennt plötzlich auf die Fahrbahn. Und der Abstandsmesser des Fahrcomputers stellt fest: Zum Bremsen ist es zu spät. Was soll der Fahrcomputer jetzt tun? Die Kinder überfahren? Nach links ausweichen und den Motorradfahrer rammen? Oder nach rechts ziehen, wo der Radfahrer strampelt?

Wenn Autos künftig autonom durch Städte fahren sollen, müssen solche Fragen beantwortet werden. Die ersten selbst fahrenden Autos wurden für gut überschaubare Strecken entwickelt, für Autobahnen oder Landstraßen. Abgesehen von Rehen, die in der Dämmerung auf die Fahrbahn springen, gibt es dort kaum unvorhersehbare Gefahren. Jetzt allerdings sollen computergesteuerte Autos auch in Städten fahren, das kündigte der Internetkonzern Google vor Kurzem an. Die Autos sollen selbstständig durch das Straßengewirr der Städte navigieren, mit allen Hindernissen und Unwägbarkeiten des urbanen Straßenverkehrs.

Damit die Fahrcomputer mit diesen Unwägbarkeiten zurechtkommen, muss man sie mit Algorithmen füttern. Der Fahrcomputer scannt in einer Gefahrensituation das Umfeld, und der Algorithmus trifft eine Entscheidung. So kann der Computer zum Beispiel berechnen, wie hoch die Wahrscheinlichkeit ist, dass ein Motorradfahrer, der einen Helm trägt, bei einem Aufprall stirbt. Er kann diese Wahrscheinlichkeit vergleichen mit der Sterbewahrscheinlichkeit eines Radfahrers ohne Helm. Auf der Grundlage dieser Berechnung würde er das geringere Übel wählen. Er würde nach links ausweichen – auf die Spur des Motorradfahrers.

Diese Entscheidung ist rational. Gerecht ist sie nicht. Der Computer würde den Motorradfahrer dafür bestrafen, dass er einen Helm trägt. Und den Fahrradfahrer dafür belohnen, dass er ohne fährt.

Ein anderes Beispiel: Auf der Straße fährt rechts ein VW Polo und links ein Porsche Cayenne. Rein physikalisch ist die Entscheidung einfach: Der Computer entscheidet, den Porsche zu rammen, denn der kann den Aufprall besser abfedern. Was aber kann der Porschefahrer dafür, dass er ein robustes Auto fährt?

Chris Gerdes hat sich mit solchen Fragen beschäftigt. Gerdes ist Professor für Ingenieurwesen an der Universität Stanford und erforscht die ethischen Probleme, die das automatisierte Fahren mit sich bringt. "Es ist einfacher als gedacht, ethische Regeln in selbst fahrende Autos einzubauen", sagt er. "Aber viel schwieriger ist es, zu entscheiden, ob diese ethischen Regeln auch angemessen sind."

Ein Mensch reagiert in einer Gefahrensituation instinktiv. Er berechnet keine Sterbewahrscheinlichkeiten. Er bremst oder weicht aus, ohne lange darüber nachzudenken. Der Computer dagegen scannt mithilfe von Dutzenden Sensoren unablässig seine Umwelt. Er fängt schon an zu rechnen, bevor wir Menschen die Gefahr überhaupt sehen.

Eine Möglichkeit, dem ethischen Dilemma aus dem Weg zu gehen, ist es, das Kalkül des Algorithmus gegen den Zufall auszutauschen. Tatsächlich haben Forscher vorgeschlagen, eine Art Ethikkodex für Fahrcomputer zu erarbeiten. Ein Kodex, der die simple Kosten-Nutzen-Rechnung in einigen Situationen überstimmen soll. Konkret könnte das so aussehen: Man baut in das Steuerungssystem des Autos einen Zufallsgenerator ein, der in Gefahrensituationen die Entscheidung trifft. Diese Entscheidung würde der spontanen, unkalkulierbaren Reaktion eines menschlichen Fahrers ähneln. Aber ist sie deshalb besser?

Schließlich wurden selbst fahrende Autos doch gerade deshalb entwickelt, weil sie berechenbarer sind als Menschen, weil Computer im Idealfall die besseren Fahrer sind. Jedes Jahr kommen laut der Weltgesundheitsorganisation rund 1,2 Millionen Menschen bei Autounfällen ums Leben – in den meisten Fällen, weil die Fahrer unaufmerksam oder betrunken sind. Die Ingenieure, die an autonomen Fahrzeugen arbeiten, träumen davon, Autos zu bauen, die das Fehlverhalten von Fahrern eliminieren. Dabei sind die Ingenieure auf einem guten Weg. Sie können schon heute Fahrsysteme bauen, die schneller und zuverlässiger reagieren als der Mensch. Ersetzt man die rationalen – und oft brutalen – Entscheidungen dieser Fahrsysteme durch Zufallsentscheidungen, nur um sich ethischen Dilemmata zu entziehen, bleibt man weit hinter den Möglichkeiten der Technik zurück. "Ich glaube, es ist schwer vermittelbar, warum man würfeln sollte, wenn man stattdessen einen Pfad einschlagen kann, der in einem geringeren Schaden resultiert", sagt Chris Gerdes aus Stanford.

Bryant Walker Smith, Wissenschaftler am Center for Internet and Society der Stanford Law School, beschreibt eine zusätzliche Herausforderung: Am Ende werde der Programmierer auch zwischen moralischer und juristischer Verantwortung differenzieren müssen. "Ein autonomes Fahrzeug ist letztlich nur ein Werkzeug. Hersteller und Fahrer können nach einem Unfall haftbar gemacht werden. Der Fahrer, wenn er das Auto bewusst falsch programmiert oder es nicht ordnungsgemäß überwacht. Oder der Hersteller, wenn er ein defektes Teil einbaut."

Die Haftung ist unheimlich kompliziert. Eine Person kann zum Beispiel moralisch verantwortlich sein, aber nicht rechtlich. "In meinen Augen ist die fundamentale ethische Frage diese: In Europa sterben jährlich Tausende Menschen bei Unfällen. Autonome Fahrzeuge haben ein großes Potenzial, diese Zahl eines Tages zu senken. Nur schließt der Weg dahin weitere Irrtümer, Crashs und Todesfälle mit ein", sagt Smith. Die schlechte Nachricht aber klingt in all den Urteilen durch: Automatisierung bedeute kein Ende der Unsicherheit im Straßenverkehr.