Es ist kein bloßes Gedankenspiel und erst recht kein Scherz: Das MIT Media Lab crowdsourct derzeit moralische Entscheidungen über Leben und Tod, die ein fahrerloses Fahrzeug treffen sollte.
Auf moralmachine.mit.edu sollen Internetnutzer in eine Reiher von Szenarien entscheiden, was ein solches Auto tun sollte, wenn es einen Unfall nicht mehr verhindern kann: Lieber Kurs halten und eine Frau überfahren, die gerade die Straße überquert, obwohl die Fußgängerampel auf Rot steht – oder ausweichen und dabei einen Bankräuber töten, dessen Ampel Grün zeigt?
Lieber drei dicke Frauen, eine Managerin und ein Mädchen totfahren, die bei Rot über die Straße gehen – oder ausweichen und durch den folgenden Zusammenprall mit einem Hindernis die Insassen sterben lassen, in diesem Fall einen Manager, drei dicke Männer und einen Jungen? In einem anderen Szenario ist es möglich, einen Bankräuber, drei Doktoren und eine Katze zu überfahren, die eine rote Fußgängerampel ignorieren. Oder doch besser das Auto in ein Betonhindernis zu steuern und dadurch den kriminellen Insassen umzubringen?
"Play again"
Jeweils 13 Fragestellungen pro Durchgang bekommen die Nutzer vorgesetzt. Am Ende bekommt jeder eine Statistik zu sehen: Hat man vorwiegend Männer oder Frauen umgebracht – und liegt man damit unter oder über den Durchschnitt aller Teilnehmer? Lässt man eher die Fahrzeuginsassen oder Fußgänger sterben? Hat man versucht, möglichst viele Menschenleben zu retten?
Ganz unten auf der Ergebnisseite wird den Nutzern mitgeteilt, dass ihre Entscheidungen anonymisiert in die Forschungsarbeit des Media Labs einfließen. So soll sichergestellt werden, dass die Teilnehmer ihre tatsächliche Meinung zum Ausdruck bringen. Und darunter gibt es die Möglichkeit, die eigenen Eingaben durch einen Klick zu löschen, damit sie nicht vom MIT Media Lab verwendet werden. Wer nach 13 Szenarien weitertöten möchte, klickt einfach auf den Button Play Again.
Einfache Addition von Menschenleben?
Konzeptionell und inhaltlich wirkt die Moral Machine fragwürdig. Den Teilnehmern wird nicht genau erklärt, in welche Forschungsarbeit ihre Daten einfließen, der Link zum nachträglichen Opt-out ist auffällig unauffällig geraten, und Play again ist eine verharmlosende Bezeichnung, die verschleiert, dass die Entscheidungen der Nutzer verwertet werden sollen.
Außerdem haben einige Nutzer bereits in den Kommentaren auf der Seite angemerkt, dass die MIT-Szenarien zum Teil unrealistisch sind und mit Moral und Ethik wenig zu tun haben. Einmal angenommen, es wäre so gewünscht: Könnte der Computer eines fahrerlosen Fahrzeugs wirklich gespeichert haben, wie viel ein Bankräuber im Vergleich zu einer Managerin und einem übergewichtigen Mann wert ist, die entsprechenden Personen zuverlässig mitsamt ihrer Eigenschaften erkennen und dann einfach addieren, um herauszufinden, welcher Schaden der nach diesem Maßstab geringste wäre? Genau das jedenfalls implizieren einige der Beispiele.
Kommentare
"Es besagt, dass Menschenleben nicht gegeneinander aufgewogen werden dürfen, dass also ein Todesopfer nicht weniger schlimm ist als fünf."
Da hat man es sich mal wieder sehr einfach gemacht. Mit den Konsequenzen müssen andere Leben.
Meine Meinung: Etwas mehr Utilitarismus wäre dann doch angebracht.
Solange ich nicht der Eine bin, bin ich bei Ihnen...
Faszinierend ist der Test auf jeden Fall. Der Grad an Konsequenzen (es sterben zumindest immer Lebewesen) ist auf jeden Fall so hoch angesetzt, dass ich persönlich die Erkenntnis "Ich möchte solche Entscheidungen nicht treffen wollen" daraus gezogen habe.
Ich glaube auch, dass genau das die Intention des Testes sein soll: IT-Fachkräfte bekommen langsam eine tatsächliche "Macht" mit zentralen ethischen Fragen, die sie nicht haben wollen, die aber im Verlauf des technischen Fortschrittes immer weiter in ihren Einflussbereich kommt.
Und wenn ein großer Teil der westlichen Gesellschaft schon damit hart ins Gericht geht, wie sich Polizisten unter Stress in Grenzsituationen verhält, dann sollte dieses Thema erst recht Gegenstand der alltäglichen Diskussion sein.
"IT-Fachkräfte bekommen langsam eine tatsächliche "Macht" mit zentralen ethischen Fragen, die sie nicht haben wollen, "
Die Macht, die der Test implizit voraussetzt, gibt es in der Regel nicht.
Ein Fahrer, der einen Menschen überfährt, weiss in der Regel nicht, wen er da gerade überfährt (Mann, Frau, Manager, Bankräuber, Kind, dick, dünn).
Ein Auto weiss das erst recht nicht.
Ich habe z.B. einmal etwas überfahren, das direkt hinter einer Kuppe auf der Landstrasse lag und aussah wie ein Kind.
Was glauben sie wie erleichtert ich war, als ich ausgestiegen bin und feststellt dass es sich um eine Puppe handelte.
Hier vollständige Informationen vorauszusetzen ist unrealistisch. Wissenschaftsgebiete, die sich mit unvollständiger oder asymetrischer Information befassen (Statistik, Spieltheorie, etc.) wären hier angebrachter als deterministische Ansätze unter der Voraussetzung vollständiger Information. IT ist hier einfach nicht die richtige Disziplin.
Saugeil find ich die Totenköpfe in der App.
Zeigt schon einige deutliche moralische Dilemma auf...
Endlich beschäftigt man sich auf interessante Weise mit diesem Dilemma, was ich mit Freunden schon öfter scherzhaft durchgesprochen habe. Das sind tolle neue first-world Probleme.
The times we live in...
Das Problem ist, dass diese Fälle so konstruiert sind, dass diese in der Realität mit großer Wahrscheinlichkeit nie vorkommen werden. In den meisten Fällen in denen hier spekuliert wird, wird ein Abbremsen noch möglich sein oder es eh zu spät sein, auszuweichen, etc. Alles sehr hypotethisch.