Es ist kein bloßes Gedankenspiel und erst recht kein Scherz: Das MIT Media Lab crowdsourct derzeit moralische Entscheidungen über Leben und Tod, die ein fahrerloses Fahrzeug treffen sollte.

Auf moralmachine.mit.edu sollen Internetnutzer in eine Reiher von Szenarien entscheiden, was ein solches Auto tun sollte, wenn es einen Unfall nicht mehr verhindern kann: Lieber Kurs halten und eine Frau überfahren, die gerade die Straße überquert, obwohl die Fußgängerampel auf Rot steht – oder ausweichen und dabei einen Bankräuber töten, dessen Ampel Grün zeigt?

Lieber drei dicke Frauen, eine Managerin und ein Mädchen totfahren, die bei Rot über die Straße gehen – oder ausweichen und durch den folgenden Zusammenprall mit einem Hindernis die Insassen sterben lassen, in diesem Fall einen Manager, drei dicke Männer und einen Jungen? In einem anderen Szenario ist es möglich, einen Bankräuber, drei Doktoren und eine Katze zu überfahren, die eine rote Fußgängerampel ignorieren. Oder doch besser das Auto in ein Betonhindernis zu steuern und dadurch den kriminellen Insassen umzubringen?

"Play again"

Jeweils 13 Fragestellungen pro Durchgang bekommen die Nutzer vorgesetzt. Am Ende bekommt jeder eine Statistik zu sehen: Hat man vorwiegend Männer oder Frauen umgebracht – und liegt man damit unter oder über den Durchschnitt aller Teilnehmer? Lässt man eher die Fahrzeuginsassen oder Fußgänger sterben? Hat man versucht, möglichst viele Menschenleben zu retten?

Ganz unten auf der Ergebnisseite wird den Nutzern mitgeteilt, dass ihre Entscheidungen anonymisiert in die Forschungsarbeit des Media Labs einfließen. So soll sichergestellt werden, dass die Teilnehmer ihre tatsächliche Meinung zum Ausdruck bringen. Und darunter gibt es die Möglichkeit, die eigenen Eingaben durch einen Klick zu löschen, damit sie nicht vom MIT Media Lab verwendet werden. Wer nach 13 Szenarien weitertöten möchte, klickt einfach auf den Button Play Again.

Einfache Addition von Menschenleben?

Konzeptionell und inhaltlich wirkt die Moral Machine fragwürdig. Den Teilnehmern wird nicht genau erklärt, in welche Forschungsarbeit ihre Daten einfließen, der Link zum nachträglichen Opt-out ist auffällig unauffällig geraten, und Play again ist eine verharmlosende Bezeichnung, die verschleiert, dass die Entscheidungen der Nutzer verwertet werden sollen.

Außerdem haben einige Nutzer bereits in den Kommentaren auf der Seite angemerkt, dass die MIT-Szenarien zum Teil unrealistisch sind und mit Moral und Ethik wenig zu tun haben. Einmal angenommen, es wäre so gewünscht: Könnte der Computer eines fahrerlosen Fahrzeugs wirklich gespeichert haben, wie viel ein Bankräuber im Vergleich zu einer Managerin und einem übergewichtigen Mann wert ist, die entsprechenden Personen zuverlässig mitsamt ihrer Eigenschaften erkennen und dann einfach addieren, um herauszufinden, welcher Schaden der nach diesem Maßstab geringste wäre? Genau das jedenfalls implizieren einige der Beispiele.