Der humanoide Roboter "Hiro" füllt Wasser in eine Tasse. © YOSHIKAZU TSUNO/AFP/Getty Images

DIE ZEIT: Mister Sharkey, Sie sagten einmal, Roboter seien so dumm wie programmierbare Waschmaschinen. Brauchen Waschmaschinen eine Ethik?

Noel Sharkey: Man muss zwei Aspekte der Roboterethik unterscheiden. Da wäre zum einen das fiktive Szenario, das Philosophen seit Langem beschäftigt: Welche Rechte hätte eine Maschine mit menschlicher Intelligenz? Der deutlich wichtigere Aspekt ist aber die Ethik bereits existierender Roboter. Dabei spielt keine Rolle, wie schlau die nun wirklich sind.

ZEIT: Bisher stehen Roboter doch fast nur in Fabriken. Meinen Sie, das wird sich ändern?

Sharkey: Ja, schon in den nächsten 10 bis 15 Jahren werden wir sie überall sehen: als Pfleger , Kindergärtner, Polizisten – und natürlich als Sexspielzeug. Als Roboterethiker will ich auf die damit verbundenen Probleme hinweisen, um Hersteller, Programmierer, Anwälte und Politiker zu einer Diskussion zu animieren.

ZEIT: Und was soll an deren Ende stehen? Robotergesetze wie jene, die der Science-Fiction-Autor Isaac Asimov vorweggenommen hat?

Sharkey: Das höre ich immer wieder, meist von Leuten, die Asimov nicht gelesen haben! Seine Geschichten zeigen, dass sich solche Gesetze immer widersprechen werden. Er hat zum Beispiel diese Regel: "Du darfst nicht zulassen, dass ein Mensch zu Schaden kommt." Was aber passiert, wenn ein Mensch plant, einen Planeten mit Milliarden Menschen darauf zu zerstören? Der Roboter dürfte nicht eingreifen, weil der Typ mit der Waffe immer noch ein Mensch ist.

ZEIT: Wäre es denn wenigstens möglich, Maschinen Grundzüge menschlichen Verhaltens beizubringen?

Sharkey: Mit heutiger Software ist ein Roboter lediglich in der Lage, einen Menschen von einem Auto zu unterscheiden. Schon bei einer Puppe versagt er kläglich. Aber selbst wenn die Technik eines Tages so weit ist, fehlt ihm gesunder Menschenverstand – den zum Beispiel ein Polizeichef hat, der eine brenzlige Situation bei einer Demonstration einschätzen muss.

ZEIT: Wenn man Robotern selbst kein ethisches Verhalten beibringen kann, wer steht dann moralisch in der Pflicht? Die Ingenieure?

Sharkey: Ja, und da gibt es schon Richtlinien des "ethischen Designs". Wenn man zum Beispiel seine Kinder in der Obhut einer Roboter-Nanny lassen könnte, wie ließe sich dann verhindern, dass Rabeneltern die Technik ausnutzen und ihr Kind vernachlässigen? Als Roboterhersteller muss man eine Möglichkeit finden, diese Missbrauchsmöglichkeit auszuschließen.

ZEIT: Wie sollte das funktionieren?

Sharkey: Man könnte den Roboter mit einer Fläche versehen, auf die ein Elternteil in regelmäßigen Abständen die Hand legen muss – sonst schlägt der Roboter Alarm.