Wie gefährlich ist ein selbstfahrendes Auto? Darf mich ein Pflegeroboter füttern? Mit diesen Fragen beschäftigt sich der Maschinenethiker Oliver Bendel. Ein Gespräch über die Moral künstlicher Intelligenz

DIE ZEIT: Mit Donald Trump könnten Sie gute Geschäfte machen, oder?

Oliver Bendel: (lacht) Ich kann mir denken, auf was Sie hinauswollen ...

ZEIT: Es geht um Ihren Lügenbot. Sie haben eine Münchhausen-Maschine konstruiert, mit der man Fake-News erzeugen kann.

Bendel: Das kann Herr Trump auch ohne mich. Aber Sie haben recht, mein Lügenbot kann im Netz lügen wie gedruckt, zum Beispiel was die Tourismusregion Basel anbelangt, wo ich arbeite. Er behauptet etwa, dass es in Basel tolle Berge gibt, was natürlich nicht stimmt. Oder dass in Basel gerade die Sonne scheint, obwohl es in Wirklichkeit in Strömen regnet.

ZEIT: Wo kann man den Lügenbot treffen?

Bendel: Er war ein halbes Jahr unter liebot.org und luegenbot.ch im Netz aktiv. Zurzeit fehlen uns die finanziellen Ressourcen, um ihn weiter zu betreiben. Aber voraussichtlich für Herbst ist ein Nachfolgeprojekt geplant.

ZEIT: Was wollen Sie damit demonstrieren?

Bendel: Ich will zeigen, dass es ohne Weiteres möglich ist, moralische und unmoralische Maschinen zu konstruieren – und auf Gefahren hinweisen: Maschinen könnten etwa bestimmte Gerüchte und Lügen verbreiten und verstärken.

ZEIT: Social Bots, die Diskussionen in sozialen Netzwerken beeinflussen, gibt es ja bereits. Kürzlich hat der Chatbot "Tay", ein Software-Roboter von Microsoft, sich als Hitler-Fan entpuppt.

Bendel: Der Microsoft-Bot war, im Gegensatz zu meinem Lügenbot, ein selbstlernendes System. Eine Maschine, die immer klüger werden sollte, je mehr sie mit ihrer Umgebung kommuniziert. Da kann es passieren, dass sie gewissermaßen in schlechte Gesellschaft gerät und sich Dinge abguckt, die unmoralisch sind. Um das zu verhindern, muss man das System deckeln. Den Bot so einstellen, dass er manche Wörter erst gar nicht verwendet.

ZEIT: Kann man bei Computerprogrammen oder Robotern überhaupt von Moral oder Unmoral sprechen? Können Maschinen gut oder böse sein?

Bendel: Da sind wir mittendrin in der Maschinenethik. Wir kennen seit 2.500 Jahren die Ethik als eine Disziplin, die sich ausschließlich auf Menschen richtete. Jetzt haben wir es mit neuen Subjekten der Moral zu tun, eben Maschinen. Natürlich sind sie nicht gut oder böse, weil sie keinen eigenen Willen, kein Bewusstsein haben. Aber sie treffen, teilautonom oder autonom, bestimmte moralisch relevante Entscheidungen.

ZEIT: Nehmen wir das autonome Fahren. Es wirft bestimmte moralische Fragen auf. Bundesverkehrsminister Alexander Dobrindt hat dazu eigens eine Ethikkommission ins Leben gerufen.

Bendel: Es geht beim autonomen Fahren darum, wie sich diese Maschinen in Grenzsituationen verhalten. Sollen sie, wenn sich ein Unfall anbahnt, eher die Insassen des Autos schonen oder die Fußgänger? Und wenn ja, welche Fußgänger? Sollen sie eine Auswahl treffen und nach Alter, Geschlecht, Ethnie, Nützlichkeit qualifizieren? Oder sollen sie einfach quantifizieren, also abzählen? Ich habe dazu eine ziemlich eindeutige Meinung.

ZEIT: Und die wäre?

Bendel: Ich halte das autonome Fahren grundsätzlich für eine tolle Sache. Aber ich würde diese Technik auf die Autobahnen beschränken. Im Stadtverkehr gibt es zu viele heikle Gefahrensituationen, mit denen eine Maschine schlicht überfordert wäre. Menschen entscheiden oft situativ und intuitiv. Ich will eine Maschine erst gar nicht in die Situation bringen, heikle moralische Fragen entscheiden zu müssen. Soll ein selbstfahrendes Auto, wenn ein Crash unvermeidlich ist, den 80-jährigen Großvater am Leben lassen oder das 18-jährige Mädchen? Vielleicht ist der 80-Jährige ein Wissenschaftler, dessen größte Entdeckung erst noch bevorsteht. Hat er mehr oder weniger Recht, weiterzuleben? Unlösbare Fragen. Lassen wir die Finger davon.