Algorithmen, intelligente Software und Roboter können immer mehr Dinge, zu denen noch vor Kurzem allein der Mensch fähig war. Über die rasante Entwicklung der künstlichen Intelligenz (KI) und deren Folgen berichtet ZEIT ONLINE in der neuen Serie Maschinenraum.


Mika, ein bildhübsches Robotermodell, mit schlanker Taille und eng anliegender Bluse, hat ihren Besitzer getötet, einen Macho, der sie schlecht behandelt und als Sexsklavin missbraucht hat. Ein Roboterverbrechen? Detective Rivera ist mit diesem bizarren Fall betraut. Darum kreist die ebenso verstörende wie instruktive Kurzgeschichte mit dem Titel Mika Model, die der US-amerikanische Science-Fiction-Autor Paolo Bacigalupi kürzlich für das US-Magazin Slate geschrieben hat. Was passiert, wenn ein Roboter tötet? Ist das Mord? Oder ein Fall von Produkthaftung? Mika, der Bot, entwickelt Schuldgefühle, er (respektive sie) reflektiert seine (ihre?) Tat, und der ermittelnde Kommissar Rivera hat den Eindruck, es mit einem Menschen zu tun zu haben.

Kann eine Maschine Schuldgefühle entwickeln? Gelten für Mika Rechtfertigungs- oder Entschuldigungsgründe wie im Fall des Haustyrannenmords, bei dem eine Frau tyrannisiert wird, die ihren Ehemann schließlich mit einer Schusswaffe tötet? Vielleicht ist eine Affekttat ja auch ein Defekt unserer neuronalen Verschaltung, ein Bug in der menschlichen Software. Die Geschichte endet damit, dass ein Mitarbeiter der Herstellerfirma dem Roboter in einer kafkaesken Aktion die Augen aussticht. Ist das Totschlag? Oder Sachbeschädigung? Was passiert da eigentlich? Fährt da jemand nur den Hauptprozessor eines Roboters herunter? Oder zerstört er eine Form von Leben?

Wenn der Roboter das Falsche lernt

Die Kurzgeschichte zeigt die drängenden Fragen des Roboterrechts wie unter einem Brennglas. Nach geltendem Recht wäre die Zerstörung eines humanoiden Roboters ein Fall von Sachbeschädigung, genauso wie die Tötung eines Tiers. Das erscheint zunächst befremdlich und kontraintuitiv, weil wir Menschen Maschinen Empathie entgegenbringen. Es spiegelt aber letztlich nur die Tatsache, dass es sich bei Tieren und Maschinen im juristischen Sinn um Sachen handelt. 

Die strafrechtliche Haftung des Täters wird nach dem vorgestellten Sachverhalt beurteilt, also danach, wovon der Täter in seinem Vorstellungsvermögen ausging. Wenn A zum Beispiel B töten will und auf eine Schaufensterpuppe schießt, die er für den B hält, wäre er wegen Versuchs der Tötung (sogenannter untauglicher Versuch) strafbar. Wenn der Mitarbeiter von Mikas Herstellerfirma sich über die Roboterfrau und ihre Tat irrt, könnte man auch in diesem fiktiven Fall nach geltender Strafrechtslehre einen Tötungsversuch konstruieren. Die Verschuldensfrage bei einem Roboter, der korrekt ausgeliefert ist, im Lauf seines Einsatzes maschinell dazugelernt hat, möglicherweise aber nicht die richtigen Daten gesammelt und dadurch gravierende Schäden verursacht hat, ist nicht ohne Weiteres beantwortbar.

Im Robot-Recht geht es um die Frage, inwiefern autonome Systeme selbst verantwortlich sein können. Auch das durch die Hirnforschung erschütterte Dogma der Willensfreiheit wird in diesem Zusammenhang debattiert. Der Rechtsphilosoph Eric Hilgendorf argumentiert, dass die Annahme menschlicher Willensfreiheit grundsätzlich auch auf Roboter übertragen werden kann. Man könnte unter einigen dogmatischen Verrenkungen eine Haftbarkeit für Automaten begründen. Doch wenn man Robotern, etwa im Haushalt, (Sorgfalts-)Pflichten auferlegt, müsste man ihnen dann nicht konsequenterweise auch Rechte zubilligen?

Der Science-Fiction-Autor Isaac Asimov hat in seiner Kurzgeschichte Runaround 1942 die ersten Robotergesetze formuliert. Sie lauten erstens: "Ein Roboter darf einen Menschen nicht verletzen oder, durch Untätigkeit, erlauben, dass ein Mensch zu Schaden kommt." Zweitens: "Ein Roboter muss die Regeln, die ihm von Menschen auferlegt werden, befolgen, es sei denn, sie stehen in Konflikt zum ersten Gesetz." Drittens: "Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht mit dem ersten oder zweiten Gesetz in Konflikt steht."

Die Klasse der elektronischen Personen

Diese Regeln wurden bislang nicht festgeschrieben, aber sie setzen einen groben Rechtsrahmen für Roboter. Als in den 1980er Jahren über Geheimdiensttechnologien diskutiert wurde, erwogen Rechtsgelehrte erstmals Rahmenbedingungen für Roboter. Dabei ging es um die Frage, ob intelligente Maschinen in Bezug auf Verantwortlichkeit und Rechtsstatus eine Anpassung geltender Rechtsvorschriften erforderten.

Der französische Soziologe Bruno Latour plädierte in seinem Werk Das Parlament der Dinge (2001) dafür, dass man dereinst auch Tiere und Maschinen als gleichwertige Akteure in einem sozialen System anerkennen müsste. Das EU-finanzierte Projekt RoboLaw, das sich von 2012 bis 2014 mit den gesetzlichen Grundlagen zur Robotik, beschäftigte, kam in seinem Projektbericht Guidelines on Regulating Robotics zu dem Ergebnis: "Wird angenommen, dass vor allem autonome Roboter in manchen Fällen eher einem Subjekt gleichkommen als einem Objekt, sollte ihnen eine Art juristische Persönlichkeit beigemessen werden einschließlich aller Konsequenzen, die sich aus den dazugehörigen Rechten und Verpflichtungen ergeben." Daran anknüpfend hat der Rechtsausschuss des EU-Parlaments Ende Mai dieses Jahres einen Entwurfsbericht vorgelegt, in dem eine Sozialabgaben- und Steuerpflicht und ein europaweites Register für Industrieroboter gefordert werden. Die Roboter könnten als "elektronische Person" klassifiziert und somit in den Status eines Rechtssubjekts erhoben werden. Roboter hätten damit Rechte und Pflichten.