Es ist kein bloßes Gedankenspiel und erst recht kein Scherz: Das MIT Media Lab crowdsourct derzeit moralische Entscheidungen über Leben und Tod, die ein fahrerloses Fahrzeug treffen sollte.

Auf moralmachine.mit.edu sollen Internetnutzer in eine Reiher von Szenarien entscheiden, was ein solches Auto tun sollte, wenn es einen Unfall nicht mehr verhindern kann: Lieber Kurs halten und eine Frau überfahren, die gerade die Straße überquert, obwohl die Fußgängerampel auf Rot steht – oder ausweichen und dabei einen Bankräuber töten, dessen Ampel Grün zeigt?

Lieber drei dicke Frauen, eine Managerin und ein Mädchen totfahren, die bei Rot über die Straße gehen – oder ausweichen und durch den folgenden Zusammenprall mit einem Hindernis die Insassen sterben lassen, in diesem Fall einen Manager, drei dicke Männer und einen Jungen? In einem anderen Szenario ist es möglich, einen Bankräuber, drei Doktoren und eine Katze zu überfahren, die eine rote Fußgängerampel ignorieren. Oder doch besser das Auto in ein Betonhindernis zu steuern und dadurch den kriminellen Insassen umzubringen?

"Play again"

Jeweils 13 Fragestellungen pro Durchgang bekommen die Nutzer vorgesetzt. Am Ende bekommt jeder eine Statistik zu sehen: Hat man vorwiegend Männer oder Frauen umgebracht – und liegt man damit unter oder über den Durchschnitt aller Teilnehmer? Lässt man eher die Fahrzeuginsassen oder Fußgänger sterben? Hat man versucht, möglichst viele Menschenleben zu retten?

Ganz unten auf der Ergebnisseite wird den Nutzern mitgeteilt, dass ihre Entscheidungen anonymisiert in die Forschungsarbeit des Media Labs einfließen. So soll sichergestellt werden, dass die Teilnehmer ihre tatsächliche Meinung zum Ausdruck bringen. Und darunter gibt es die Möglichkeit, die eigenen Eingaben durch einen Klick zu löschen, damit sie nicht vom MIT Media Lab verwendet werden. Wer nach 13 Szenarien weitertöten möchte, klickt einfach auf den Button Play Again.

Einfache Addition von Menschenleben?

Konzeptionell und inhaltlich wirkt die Moral Machine fragwürdig. Den Teilnehmern wird nicht genau erklärt, in welche Forschungsarbeit ihre Daten einfließen, der Link zum nachträglichen Opt-out ist auffällig unauffällig geraten, und Play again ist eine verharmlosende Bezeichnung, die verschleiert, dass die Entscheidungen der Nutzer verwertet werden sollen.

Außerdem haben einige Nutzer bereits in den Kommentaren auf der Seite angemerkt, dass die MIT-Szenarien zum Teil unrealistisch sind und mit Moral und Ethik wenig zu tun haben. Einmal angenommen, es wäre so gewünscht: Könnte der Computer eines fahrerlosen Fahrzeugs wirklich gespeichert haben, wie viel ein Bankräuber im Vergleich zu einer Managerin und einem übergewichtigen Mann wert ist, die entsprechenden Personen zuverlässig mitsamt ihrer Eigenschaften erkennen und dann einfach addieren, um herauszufinden, welcher Schaden der nach diesem Maßstab geringste wäre? Genau das jedenfalls implizieren einige der Beispiele.

Ethik hinkt der Technik hinterher

Es ist nicht der erste Versuch, ein Meinungsbild in der Bevölkerung einzuholen. Anderer Forscher haben dazu die Mikrojobber auf Amazon Mechanical Turk befragt.

Das wenig überzeugende Projekt des MIT Media Labs verdeutlicht aber zumindest, dass die Forschung zu diesem Thema noch ziemlich am Anfang steht und der Fahrzeugtechnik hinterherhinkt. Für Hersteller, Passagiere, andere Verkehrsteilnehmer, Versicherer und Gerichte stellen sich noch schwierig zu beantwortende Fragen: Wer würde ein Fahrzeug kaufen oder benutzen, dessen Software es unter Umständen für die am wenigsten schlechte Lösung in einer ausweglosen Situation hält, das Leben der Insassen aufs Spiel zu setzen? Wäre ein Zufallsgenerator eine Alternative zur Entscheidungsfindung, weil er menschliches Handeln ansatzweise simulieren würde? Wie soll eine Kfz- oder Unfallversicherung aussehen, wenn nicht mehr Fahrer einen Unfall verursachen, sondern autonome Maschinen?

Wählen Sie Ihren Lieblingsmodus

In Deutschland könnte das Urteil des Bundesverfassungsgerichts zu einem Abschuss eines von Terroristen gekaperten Passagierflugzeugs als Leitlinie herhalten. Es besagt, dass Menschenleben nicht gegeneinander aufgewogen werden dürfen, dass also ein Todesopfer nicht weniger schlimm ist als fünf. Aber in anderen Ländern könnten andere Maßstäbe gelten. Muss also jeder Autobauer mehrere Lösungen entwickeln? Wenn ja, was passiert, wenn man mit seinem Auto in ein anderes Land fährt? Sollten Hersteller einem Käufer vor dem Fahrtantritt diverse Algorithmen zur Auswahl stellen?

Es sind extreme Ausnahmesituationen, die derzeit debattiert werden. Autonome Fahrzeuge werden, davon sind Fachleute und Hersteller überzeugt, die Zahl der Verkehrsunfälle drastisch senken. Das ist einer der wichtigsten Gründe, sie überhaupt zu entwickeln. Aber für die gesellschaftliche Akzeptanz der Technik und für ihren Erfolg auf dem Markt wird es von entscheidender Bedeutung sein, dass auch die Fragen nach Leben und Tod beantwortet werden können.