Algorithmen, intelligente Software und Roboter können immer mehr Dinge, zu denen noch vor Kurzem allein der Mensch fähig war. Über die rasante Entwicklung der künstlichen Intelligenz (KI) und deren Folgen berichtet ZEIT ONLINE in der neuen Serie Maschinenraum.
Mika, ein bildhübsches Robotermodell, mit schlanker
Taille und eng anliegender Bluse, hat ihren Besitzer getötet, einen
Macho, der sie schlecht behandelt und als Sexsklavin missbraucht hat.
Ein Roboterverbrechen? Detective Rivera ist mit diesem bizarren Fall
betraut. Darum kreist die ebenso verstörende wie
instruktive Kurzgeschichte mit dem Titel Mika Model, die der
US-amerikanische Science-Fiction-Autor Paolo Bacigalupi kürzlich
für das US-Magazin Slate geschrieben hat. Was passiert, wenn ein Roboter tötet? Ist das Mord? Oder
ein Fall von Produkthaftung? Mika, der Bot, entwickelt Schuldgefühle,
er (respektive sie) reflektiert seine (ihre?) Tat, und der
ermittelnde Kommissar Rivera hat den Eindruck, es mit einem Menschen
zu tun zu haben.
Kann eine Maschine Schuldgefühle entwickeln? Gelten für Mika Rechtfertigungs- oder Entschuldigungsgründe wie im Fall des Haustyrannenmords, bei dem eine Frau tyrannisiert wird, die ihren Ehemann schließlich mit einer Schusswaffe tötet? Vielleicht ist eine Affekttat ja auch ein Defekt unserer neuronalen Verschaltung, ein Bug in der menschlichen Software. Die Geschichte endet damit, dass ein Mitarbeiter der Herstellerfirma dem Roboter in einer kafkaesken Aktion die Augen aussticht. Ist das Totschlag? Oder Sachbeschädigung? Was passiert da eigentlich? Fährt da jemand nur den Hauptprozessor eines Roboters herunter? Oder zerstört er eine Form von Leben?
Wenn der Roboter das Falsche lernt
Die Kurzgeschichte zeigt die drängenden Fragen des Roboterrechts wie unter einem Brennglas. Nach geltendem Recht wäre die Zerstörung eines humanoiden Roboters ein Fall von Sachbeschädigung, genauso wie die Tötung eines Tiers. Das erscheint zunächst befremdlich und kontraintuitiv, weil wir Menschen Maschinen Empathie entgegenbringen. Es spiegelt aber letztlich nur die Tatsache, dass es sich bei Tieren und Maschinen im juristischen Sinn um Sachen handelt.
Die strafrechtliche Haftung des Täters wird nach dem vorgestellten Sachverhalt beurteilt, also danach, wovon der Täter in seinem Vorstellungsvermögen ausging. Wenn A zum Beispiel B töten will und auf eine Schaufensterpuppe schießt, die er für den B hält, wäre er wegen Versuchs der Tötung (sogenannter untauglicher Versuch) strafbar. Wenn der Mitarbeiter von Mikas Herstellerfirma sich über die Roboterfrau und ihre Tat irrt, könnte man auch in diesem fiktiven Fall nach geltender Strafrechtslehre einen Tötungsversuch konstruieren. Die Verschuldensfrage bei einem Roboter, der korrekt ausgeliefert ist, im Lauf seines Einsatzes maschinell dazugelernt hat, möglicherweise aber nicht die richtigen Daten gesammelt und dadurch gravierende Schäden verursacht hat, ist nicht ohne Weiteres beantwortbar.
Im Robot-Recht geht es um die Frage, inwiefern autonome Systeme selbst verantwortlich sein können. Auch das durch die Hirnforschung erschütterte Dogma der Willensfreiheit wird in diesem Zusammenhang debattiert. Der Rechtsphilosoph Eric Hilgendorf argumentiert, dass die Annahme menschlicher Willensfreiheit grundsätzlich auch auf Roboter übertragen werden kann. Man könnte unter einigen dogmatischen Verrenkungen eine Haftbarkeit für Automaten begründen. Doch wenn man Robotern, etwa im Haushalt, (Sorgfalts-)Pflichten auferlegt, müsste man ihnen dann nicht konsequenterweise auch Rechte zubilligen?
Der
Science-Fiction-Autor Isaac Asimov hat in seiner Kurzgeschichte Runaround 1942 die ersten Robotergesetze formuliert. Sie lauten
erstens: "Ein Roboter darf einen Menschen nicht verletzen oder,
durch Untätigkeit, erlauben, dass ein Mensch zu Schaden kommt."
Zweitens: "Ein Roboter muss die Regeln, die ihm von Menschen
auferlegt werden, befolgen, es sei denn, sie stehen in Konflikt zum
ersten Gesetz." Drittens: "Ein Roboter muss seine eigene Existenz
schützen, solange dieser Schutz nicht mit dem ersten oder zweiten
Gesetz in Konflikt steht."
Die Klasse der elektronischen Personen
Diese
Regeln wurden bislang nicht festgeschrieben, aber sie setzen einen groben
Rechtsrahmen für Roboter. Als in den 1980er Jahren über Geheimdiensttechnologien diskutiert wurde, erwogen
Rechtsgelehrte erstmals
Rahmenbedingungen für Roboter. Dabei ging es um die Frage, ob
intelligente Maschinen in Bezug auf Verantwortlichkeit und
Rechtsstatus eine Anpassung geltender
Rechtsvorschriften erforderten.
Der französische Soziologe Bruno Latour plädierte in seinem Werk Das Parlament der Dinge (2001) dafür, dass man dereinst auch Tiere und Maschinen als gleichwertige Akteure in einem sozialen System anerkennen müsste. Das EU-finanzierte Projekt RoboLaw, das sich von 2012 bis 2014 mit den gesetzlichen Grundlagen zur Robotik, beschäftigte, kam in seinem Projektbericht Guidelines on Regulating Robotics zu dem Ergebnis: "Wird angenommen, dass vor allem autonome Roboter in manchen Fällen eher einem Subjekt gleichkommen als einem Objekt, sollte ihnen eine Art juristische Persönlichkeit beigemessen werden einschließlich aller Konsequenzen, die sich aus den dazugehörigen Rechten und Verpflichtungen ergeben." Daran anknüpfend hat der Rechtsausschuss des EU-Parlaments Ende Mai dieses Jahres einen Entwurfsbericht vorgelegt, in dem eine Sozialabgaben- und Steuerpflicht und ein europaweites Register für Industrieroboter gefordert werden. Die Roboter könnten als "elektronische Person" klassifiziert und somit in den Status eines Rechtssubjekts erhoben werden. Roboter hätten damit Rechte und Pflichten.
Kommentare
"Mika, ein bildhübsches Robotermodell, mit schlanker Taille und eng anliegender Bluse, hat ihren Besitzer getötet, einen Macho, der sie schlecht behandelt und als Sexsklavin missbraucht hat" Hoffentlich erleb ich es noch.... und jetzt macht mich fertig :-)
Das steht niemandem zu, Ihren Sinn für Ästhetik, so abstrus er auch sein mag, zu verurteilen. Wundern Sie sich nur nicht, wenn plötzlich das Interesse anderer an Ihnen und Ihren Interessen nachlässt.
Ein Roboter hat soviel Bewußtsein und soviel Gefühl wie das Material aus dem er besteht, und das wird sich auch niemals ändern.
Der Mensch - und ebenso wie das Tier ! - ist Bewußtsein, weil er eben nicht sein Körper und nicht seine Gedanken-Software ist, sondern eben substanzloses, attributloses Bewußtsein (das sich leider mit einem Körper identifiziert). Wenn man lange genug meditiert hat, wird einem das klar.
Tja, das meditieren hilft da nur nicht. Die gesamte Welt besteht aus zwei Gruppen. Die einen Nennen wir Materie (Bosonen) die andere Wechselwirkungen - und wechselwirkungsteilchen (Ferminonen).
Die "Materie" ist dummerweise einfach nur ein Aufhänger in diesem Unversum, ein Anker, um den sich die Wechselwirkungen gruppieren - und die Begriffe Energie, Temperatur, Bewegung , Information , sind nur verschiedene Sichten auf die Wechselwirkungen.
Ohne Wechselwirkungen ist ein Universum "statisch" da bewegt sich nichts , und nur mit Wechselwirkungen gibts Bewegung und Information ...
Ihr "attributloses Bewußtsein hat keinen Platz in diesem Universum, weil es nicht bemerkt werden würde weil es nicht wechselwirkt, es könnte aber auch nicths bewegen , weil es ebensowenig wechselwirkt!
Die Natur kocht ganz schlicht und einfach auch nur mit Wasser, nicht mit Geistern und Engeln und dubiosen Seelen oder sonstigen Fantasien!
Als Naturwissenschaftler definiere ich mich deshalb auch nicht über den Körper , sondern über das Handeln, Bewegung , Information , Austausch und Wechselwirkung .. ihr "Körper" ist eben einfach nur Ankerpunkt um das zu bemerken!
Ein interessanter Artikel, der die zukünftigen Verhältnisse mit sehr viel Hintergrundinformation beleuchtet.
Ein Fehler, den der Autor macht, ist m.E. jedoch folgender: Wir sind inzwischen in einem Zeitalter angelangt, in dem man die menschlichen Grundrechte grundsätzlich in Frage stellen könnte. Hat der Mensch tatsächlich ein natürliches Recht auf Leben, Freiheit und körperliche Unversehrtheit? Sind dies nicht nur Konstrukte bzw. Kompromisse zwischen den Individuen der Gesellschaft, um ein ordentliches und doch viele Freiheiten bietendes Zusammenleben zu ermöglichen? Müsste man dementsprechend nicht die Frage stellen, ob man Maschinen "Rechte" (die als solche nur existierten, solange sie von der Mehrheit der Gesellschaft akzeptiert würden) weniger deswegen zubilligen sollte, weil sie wie Menschen aussehen und unsere Empathie herausfordern, und mehr, weil sie über derart viele bzw. ausgefeilte Fähigkeiten verfügen?
Neben anderen Fehlern. Es ist keineswegs so, dass Tiere rechtlich Sachen gleichstehen, schon lange nicht mehr. § 90a BGB sagt hierzu "Tiere sind keine Sachen. Sie werden durch besondere Gesetze geschützt. Auf sie sind die für Sachen geltenden Vorschriften entsprechend anzuwenden, soweit nicht etwas anderes bestimmt ist." Ähnliches gilt auch im Strafrecht, wo es einen § 17 Tierschutzgesetz gibt, der da u.a. sagt "Mit Freiheitsstrafe bis zu drei Jahren oder mit Geldstrafe wird bestraft, wer (...) ein Wirbeltier ohne vernünftigen Grund tötet".
Generell halte ich auch den Stand der Entwicklung bei künstlichen Lebensformen nicht für ausreichend, um eine komplett neue "Rechtsklasse" zu schaffen. Aber wenn es tatsächlich irgendwann mal ernst wird in der Hinsicht, warum nicht diesem Modell folgen? Gesetzlich festlegen, dass Roboter usw. keine Sachen sind, dass die für Sachen gültigen Vorschriften aber dennoch Anwendung finden, soweit nichts anderes bestimmt ist.
Ob man das jetzt muss, und ob und inwieweit Menschen wirklich natürliche Rechte zukommen, kann man sich lange streiten. Ich meine auch, dass es kein nicht-menschengemachtes Recht auf der Welt gibt. Aber würde die Diskussion uns in der Praxis viel bringen?
Maschinen haben keine intrinsische Motivation, sie wollen nichts. Am Anfang jeder Maschinen-Aktion steht immer ein Mensch.
In dieser Hinsicht hat sich auch nichts geändert. Maschinen leisten jedes Jahr mehr. Aber jedes Jahr wollen sie genauso wenig wie im Jahr zuvor.
Und was steht am Anfang der menschlichen Aktion? Was ist für die menschliche Motivation verantwortlich? Der "freie Wille"?