Maschinen mit der Lizenz zum Töten, das ist eine neue Dimension der Kriegsführung. Diese Aussicht macht sogar den Roboterkommandeuren selbst Sorgen. »Menschliche Werte gibt es nur mit menschlicher Beteiligung«, sagt der ehemalige F-16-Pilot Pete Gersten, der das 432. Geschwader auf der Creech Air Force Base in Nevada leitet – das erste, das nur noch aus unbemannten Flugzeugen besteht.

Wer einmal mit einem automatischen Anrufsystem telefoniert hat, kennt die Grenzen der Maschinenintelligenz. Ein angreifender Gegner oder eine verängstigte Großmutter – beide sind nichts als Zahlenfelder für das Elektronenhirn. Im Irak war unter US-Soldaten die Angst umgegangen, als die Swords-Roboter, die ersten zum bewaffneten Kampfeinsatz abkommandierten Landroboter, ihre Gewehre mehrmals eigenmächtig schwenkten und abdrückten. Vor zwei Jahren beorderte die Army die Swords zurück nach Hause. Ihr Nachfolgemodell Maars wird bereits hergestellt.

Und entwickelt wird eine neue Generation von Kampfmaschinen voller Eigeninitiative, die leise über die Schlachtfelder huschen soll, schneller, als menschliche Augen es sehen können. Der SquishBot des Unternehmens Boston Dynamics zum Beispiel kann fast beliebig seine Form ändern, sich wie ein Tausendfüßler unbemerkt durch Löcher und Ritzen schlängeln, um dann direkt zu Füßen des Gegners zu explodieren. Der Urban Hopper desselben Unternehmens kann zielgenau über neun Meter hohe Zäune oder in Fenster springen. Eigentlich war der schuhkartongroße Springteufel zur Erkundung gedacht, die Auftraggeber aus dem Pentagon reden aber auch davon, ihn zu bewaffnen.

Maschinen mit der Macht über Menschenleben, doch ohne einen Sinn für Gnade oder Zweifel? Robotiker wollen autonomen Kampfmaschinen so etwas wie ein Gewissen einprogrammieren, bevor sie auf Menschen losgelassen werden. Ronald Arkin, der Direktor des Mobile Robot Laboratory am Georgia Institute of Technology, hat eine ethische Kontrollinstanz für Kampfdrohnen wie die Predator entwickelt und in Simulationen getestet, denen Geschehnisse aus den jüngsten Feldzügen der Amerikaner zugrunde liegen. So verschonen Arkins moralische Drohnen etwa einen feindlichen Fahrzeugkonvoi, wenn sie ein Krankenhaus in der Gefahrenzone erkennen. Unterläuft ihnen doch mal ein Fehler, greift ihr »Schuldsystem« ein und lässt sie beim nächsten Mal vorsichtiger zu Werke gehen.

Als im April 2002 in Afghanistan ein US-Pilot versehentlich kanadische Infanteristen mit einer 227-Kilogramm-Bombe tötete, wurde er von einem Militärgericht verurteilt. Er hatte sie für Feinde gehalten, weil sie in einer ehemaligen Talibanstellung trainierten. Ein tragisches Missverständnis. Durchaus möglich, dass Arkins moralische Drohne denselben Fehler gemacht hätte. Wer wäre dann verantwortlich gewesen? Ein Offizier? Der Programmierer? Der Roboter selbst? Schließlich entwickeln sich die Entscheidungsgrundlagen »selbst lernender« Computersysteme fortwährend.

Überrascht war Peter Singer darüber, wie wenig Kopfzerbrechen solche Fragen offenbar den zuständigen Regierungsbeamten bereiten. Ein Pentagon-Wissenschaftler erwiderte ihm nur: »Was Roboter betrifft, gibt es keine wirklichen sozialen, ethischen oder moralischen Fragen. Wenn die Maschine wiederholt die falschen Menschen tötet, steht allenfalls eine Rückrufaktion an.«

Solche Unbekümmertheit provoziert Widerspruch. Manche Robotiker, unter ihnen Illah Nourbakhsh von der Carnegie Mellon University, fordern, die Entwicklung autonomer Militärroboter rundweg zu verbieten. Konsequenterweise nimmt Nourbakhsh keine Fördergelder des Verteidigungsministeriums an. Eine öffentliche Debatte über die Gefahren mechanischer Rambos und die Frage, wie man eine Rüstungsspirale verhindern könnte, müsste jedoch erst entstehen.

Nichts ist dagegen einzuwenden, dass Scooby Doo & Co Sprengfallen räumen oder Blechkameraden verwundete Soldaten aus Situationen retten, in die sich kein menschlicher Sanitäter wagt. Aber Waffen brauchen sie dazu nicht.