Vor über 45 Jahren formulierte der Science-fiction-Autor Isaac Asimov drei Gesetze der Roboterethik, die bis heute unangefochten bestehen:

1. Ein Roboter darf kein menschliches Wesen verletzen und auch nicht durch Untätigkeit zulassen, daß ein menschliches Wesen verletzt wird.

2. Ein Roboter muß den vom Menschen gegebenen Befehlen gehorchen, es sei denn, sie kommen mit dem ersten Gesetz in Konflikt.

3. Ein Roboter muß seine eigene Existenz schützen, solange er dabei nicht mit dem ersten oder zweiten Gesetz in Konflikt gerät.

Die ersten kommerziell relevanten Industrieroboter, Joe Engelbergers Unimates, brachten gleich mehrere Fabrikarbeiter um.

Wie viele Menschen bisher Industrierobotern zum Opfer fielen, ist unbekannt. Unfallstatistiken geben selten an, ob Roboter am Geschehen beteiligt waren oder nicht. Und in der Bundesrepublik werden Roboterunfälle erst seit 1988 gesondert ausgewiesen. Die meisten geschehen nicht während des Normalbetriebs, sondern wenn der Mensch dem Roboter nahe kommt, um ihn zu programmieren oder zu warten. Der typische Roboterunfall spielt sich folgendermaßen ab: Das Opfer nähert sich der Maschine, die nur auf irgendein Sensorsignal wartet, um sich unversehens mit voller Kraft in Gang zu setzen oder ihren Laserstrahl auf den Menschen zu richten.