Bagdad, 2004: Ein Kommando des Explosive Ordnance Disposal (EOD) der U. S. Army soll eine Bombe entschärfen. Die Soldaten in Schutzkleidung überspielen ihre Anspannung mit Humor. Witze fliegen hin und her. Sergeant Matt Thompson nähert sich als Erster dem Sprengsatz. Genau in diesem Moment drücken die versteckten Bombenleger die Fernzündung. Die Detonation zerreißt den Sergeant.

So beginnt der Film Hurt Locker, im März mit sechs Oscars ausgezeichnet. Derselbe Krieg, ähnliche Szene – diesmal in der wirklichen Welt: Wieder rückt ein EOD-Kommando aus. Scooby Doo nennen die Kameraden denjenigen, der sich an die Mine pirscht. Er rollt. Scooby Doo ist ein PackBot, ein Raupenfahrzeug mit putzig aufragendem Kamerakopf. Als er seinen Greifer an die Bombe legt, geht sie hoch. Scooby Doo ist Schrott. Die Soldaten laden ihn in eine Kiste und schicken ihn heim nach Boston, zu seinem Hersteller. Der Kommandant tippt eine E-Mail: »Wenn ein Roboter stirbt, muss ich keinen Brief an seine Mutter schreiben.«

Der Unterschied zwischen Film und Wirklichkeit: ein Menschenleben. Das ist das beste Argument für die Umwälzung, die sich gerade in der Militärtechnik vollzieht. Als die US-Streitkräfte 2003 den Irak besetzten, hatten sie keinen einzigen Roboter dabei. Heute rollen, fliegen und schwimmen mehr als 20.000 Blechkameraden unter ihrem Kommando. Aber sie entschärfen nicht nur Bomben, sie feuern auch welche ab.

Scooby Doo und Co sind, militärisch gesehen, die logische Antwort auf den asymmetrischen Krieg der Bombenleger und Selbstmordattentäter. Im ersten Jahr des gegenwärtigen Irakkriegs hatten es die Invasoren mit 5607 Sprengfallen zu tun. Seither stieg die Zahl auf rund 30.000 pro Jahr. Viel zu tun für die EOD-Teams, wenig Zeit für Feinarbeit. Oft lassen sie ihre Roboter einfach an der Bombe rütteln, bis sie explodiert. Ein PackBot kostet 50.000 Dollar. Genauso viel, wie der irakische Widerstand als Kopfgeld ausgesetzt hat – für jeden toten EOD-Soldaten.

Im Jahr 2001 – und zwar schon vor dem elften September – hatte der Kongress die schrittweise Umstellung der Streitkräfte auf unbemannte Technik beschlossen. Ein Drittel der US-Truppe sollte durch Roboter ersetzt werden, bis 2010 in der Luft durch unbemannte Flugzeuge (»Drohne«), bis 2015 auch am Boden. Die erste Zielmarke ist längst erreicht. Und im vergangenen Jahr wurden in den USA schon mehr Drohnenoperateure ausgebildet als Kampf- und Bomberpiloten zusammengezählt. Zum bevorzugten Mittel der Terroristenjagd in Pakistans Bergen erklärte Präsident Barack Obama die Drohnen vom Typ Predator und Reaper – fliegende Kampfroboter, bestückt mit lasergelenkten Luft-Boden-Raketen.

Diese Roboter erweitern nicht einfach das Arsenal, sie ändern die Spielregeln. Den Vietnamkrieg haben die USA nicht wegen der Millionen zivilen Opfer abgebrochen, sondern aufgrund 60.000 toter Soldaten aus den eigenen Reihen. Im Irak steht der body count der US-Streitkräfte noch unter 4500. Dennoch fürchtet man in Washington nichts mehr als Bilder von Leichensäcken. Lassen sich mit (teil)automatisierten Armeen Kriege führen, die sonst politisch nie durchsetzbar wären?

Die Technologie erzeugt eine Paradoxie: Zwar schützen die Roboter heute das Leben der EOD-Teams im Irak. Aber ohne die Blechkameraden wären diese Soldaten vielleicht gar nicht dort.

Die Namen der Kampfmaschinen klingen wie aus Hollywood-Fantasien

Aus Sicht der Kommandeure scheinen Roboter die besseren Soldaten zu sein. Sie sind auf dem Schlachtfeld furchtlos, kennen weder Schmerz noch Müdigkeit. Sie bekommen keine Albträume, kehren nicht traumatisiert aus dem Krieg heim, und sollten sie dem Feind in die Hände fallen, taugen sie nicht als Geiseln. »Das 5000 Jahre alte Monopol des Menschen darauf, im Krieg zu kämpfen, bricht jetzt zusammen«, sagt der Politologe Peter Singer. Der Direktor an der Brookings Institution in Washington berät sowohl das Pentagon als auch die CIA, ist Experte für den automatisierten Krieg. Wie kein Zweiter erlangte er Einblick in die militärische Umwälzung, die sich gerade vollzieht. Im vergangenen Jahr erschien sein Buch Wired for War (»Für den Krieg verdrahtet«) über »die Robotikrevolution und Konflikte im 21. Jahrhundert«. Singer beschreibt darin, wie weit Kriegsroboter bereits Realität sind.

Die Namen der Kampfmaschinen klingen wie aus Hollywood-Fantasien à la Terminator oder Transformers: Predator, Reaper, Swords, Crusher, Dragon Runner. Bisher sind es noch konventionelle Geräte, surrende Miniraupen, Flugroboter mit knatterndem Turboprop, schwer stapfende künstliche Lastesel und Elektrotauchboote.

Die USA sind ihren Verbündeten und Gegnern weit voraus auf dem Gebiet der autonomen Kampfmaschinen, aber die anderen ziehen mit. Rüstungswettläufe seien absehbar, sagt die Technikphilosophin Jutta Weber und plädiert für eine rasche Rüstungskontrolle (siehe Interview Seite 34). »Der Geist lässt sich nicht mehr zurück in die Flasche sperren«, warnen auch die Herausgeber des renommierten Scientific American in der aktuellen Ausgabe des Magazins, »aber die Entwicklung der Technologie einzufrieren könnte den Schaden begrenzen.«

Mindestens 44 Staaten setzen bereits Militärroboter ein. Die israelische Armee planiert Palästinensersiedlungen im Gaza-Streifen mit 60 Tonnen schweren Roboterbulldozern. Südkorea ist dabei, an der Grenze zum verfeindeten Norden Hunderte von bewaffneten Wachrobotern zu stationieren. Die britische Polizei will für Olympia 2012 das gesamte Land mit umgebauten Militärdrohnen observieren. Nur die Japaner, sonst so roboterversessen wie keine andere Nation, zögern beim Bau von Kampfautomaten. Die deutsche Bundeswehr zierte sich jahrelang, mittlerweile sieht das anders aus (siehe Kasten Seite 34). Und der europäische Rüstungskonzern EADS fordert von Deutschland, Frankreich und Spanien ein Bekenntnis zur Drohne Talarion.

Jahrtausende ist die Entwicklung schon alt, die sich hier fortsetzt: Kontrahenten rücken immer weiter auseinander. Einst schlug man mit Fäusten, Knüppeln und Schwertern aufeinander ein. Mit Waffen zum Werfen oder Schießen wuchs die Distanz. Die Kämpfenden bekamen einander immer seltener zu Gesicht. Rüstungsexperte Peter Singer besuchte Drohnenpiloten, die Tausende Kilometer vom Kriegsschauplatz entfernt auf einem Stützpunkt nahe Las Vegas sitzen – Krieger in Sesseln vor Bildschirmen und Joysticks. Nach Dienstende steigen sie ins Auto und fahren zu ihren Familien zum Abendessen. Der Kampf als Ballerspiel. Kein Wunder, dass die Hemmschwelle sinkt. »Wie jeder weiß, der schon mal Grand Theft Auto gespielt hat«, sagte ein junger Drohnenflieger zu Singer, »tun wir in Videospielen Dinge, die wir von Angesicht zu Angesicht nie tun würden.«

Immerhin sind es noch Menschen, die da steuern. Gern betonen die US-Militärs, dass bei Roboterschüssen ein Mensch zuoberst in der Befehlskette steht. Zumindest die »Grundentscheidungen« träfen Menschen. Colonel Eric Mathewson, Direktor der Unmanned Aircraft Systems Task Force der US-Luftwaffe drückte es gegenüber dem Magazin Popular Mechanics so aus: »Die Regeln für die derzeitigen Kampfeinsätze unbemannter Flugzeuge sehen vor, dass in jedem Fall jemand seine Zustimmung geben muss.« Aber was heißt das genau? Genehmigen sie jeden einzelnen Schuss? Oder gibt der Operateur nur abstrakt den Auftrag und das Zielgebiet vor? Der Wortlaut der Einsatzregeln aber ist geheim, und auch er spiegelt nicht unbedingt die Wirklichkeit in den Kriegsgebieten. Es kursieren Berichte über amerikanische Drohnen, die selbstständig Tötungsmissionen geflogen sein sollen – freilich ohne offizielle Bestätigung. »Es gibt nicht viele Fälle von freiem Feuer«, sagt Colonel Mathewson, »Fälle, in denen das System also völlig automatisiert arbeitet.« Dass das sehr vage klingt, ist wohl Absicht.

Man muss kein Spion sein, um zu erkennen, dass der Einsatz von Robotern, die völlig autonom entscheiden, wann sie feuern, eine Frage des Wann sind, nicht des Ob. Die Grenzüberschreitung ist nur ein Software-Update entfernt. »Glauben Sie nicht, dass das nicht kommt«, sagt Peter Singer, »ich weiß von mindestens vier Pentagon-Projekten dazu.« Wenn die US-Armee ihre Automatisierungspläne weiter verwirklichen will, kommt sie gar nicht umhin, ihren Robotern immer mehr Selbstständigkeit einzuräumen. »Ferngelenkte Systeme brauchen viel unterstützendes Personal«, sagt Noel Sharkey von der Sheffield University, »offensichtlich kann kein einzelner Soldat mehrere Roboter steuern.« Der britische Roboterforscher folgert: »Autonome Kampfmaschinen dürften in naher Zukunft unvermeidbar sein.«

Maschinen mit der Macht über Menschenleben

Maschinen mit der Lizenz zum Töten, das ist eine neue Dimension der Kriegsführung. Diese Aussicht macht sogar den Roboterkommandeuren selbst Sorgen. »Menschliche Werte gibt es nur mit menschlicher Beteiligung«, sagt der ehemalige F-16-Pilot Pete Gersten, der das 432. Geschwader auf der Creech Air Force Base in Nevada leitet – das erste, das nur noch aus unbemannten Flugzeugen besteht.

Wer einmal mit einem automatischen Anrufsystem telefoniert hat, kennt die Grenzen der Maschinenintelligenz. Ein angreifender Gegner oder eine verängstigte Großmutter – beide sind nichts als Zahlenfelder für das Elektronenhirn. Im Irak war unter US-Soldaten die Angst umgegangen, als die Swords-Roboter, die ersten zum bewaffneten Kampfeinsatz abkommandierten Landroboter, ihre Gewehre mehrmals eigenmächtig schwenkten und abdrückten. Vor zwei Jahren beorderte die Army die Swords zurück nach Hause. Ihr Nachfolgemodell Maars wird bereits hergestellt.

Und entwickelt wird eine neue Generation von Kampfmaschinen voller Eigeninitiative, die leise über die Schlachtfelder huschen soll, schneller, als menschliche Augen es sehen können. Der SquishBot des Unternehmens Boston Dynamics zum Beispiel kann fast beliebig seine Form ändern, sich wie ein Tausendfüßler unbemerkt durch Löcher und Ritzen schlängeln, um dann direkt zu Füßen des Gegners zu explodieren. Der Urban Hopper desselben Unternehmens kann zielgenau über neun Meter hohe Zäune oder in Fenster springen. Eigentlich war der schuhkartongroße Springteufel zur Erkundung gedacht, die Auftraggeber aus dem Pentagon reden aber auch davon, ihn zu bewaffnen.

Maschinen mit der Macht über Menschenleben, doch ohne einen Sinn für Gnade oder Zweifel? Robotiker wollen autonomen Kampfmaschinen so etwas wie ein Gewissen einprogrammieren, bevor sie auf Menschen losgelassen werden. Ronald Arkin, der Direktor des Mobile Robot Laboratory am Georgia Institute of Technology, hat eine ethische Kontrollinstanz für Kampfdrohnen wie die Predator entwickelt und in Simulationen getestet, denen Geschehnisse aus den jüngsten Feldzügen der Amerikaner zugrunde liegen. So verschonen Arkins moralische Drohnen etwa einen feindlichen Fahrzeugkonvoi, wenn sie ein Krankenhaus in der Gefahrenzone erkennen. Unterläuft ihnen doch mal ein Fehler, greift ihr »Schuldsystem« ein und lässt sie beim nächsten Mal vorsichtiger zu Werke gehen.

Als im April 2002 in Afghanistan ein US-Pilot versehentlich kanadische Infanteristen mit einer 227-Kilogramm-Bombe tötete, wurde er von einem Militärgericht verurteilt. Er hatte sie für Feinde gehalten, weil sie in einer ehemaligen Talibanstellung trainierten. Ein tragisches Missverständnis. Durchaus möglich, dass Arkins moralische Drohne denselben Fehler gemacht hätte. Wer wäre dann verantwortlich gewesen? Ein Offizier? Der Programmierer? Der Roboter selbst? Schließlich entwickeln sich die Entscheidungsgrundlagen »selbst lernender« Computersysteme fortwährend.

Überrascht war Peter Singer darüber, wie wenig Kopfzerbrechen solche Fragen offenbar den zuständigen Regierungsbeamten bereiten. Ein Pentagon-Wissenschaftler erwiderte ihm nur: »Was Roboter betrifft, gibt es keine wirklichen sozialen, ethischen oder moralischen Fragen. Wenn die Maschine wiederholt die falschen Menschen tötet, steht allenfalls eine Rückrufaktion an.«

Solche Unbekümmertheit provoziert Widerspruch. Manche Robotiker, unter ihnen Illah Nourbakhsh von der Carnegie Mellon University, fordern, die Entwicklung autonomer Militärroboter rundweg zu verbieten. Konsequenterweise nimmt Nourbakhsh keine Fördergelder des Verteidigungsministeriums an. Eine öffentliche Debatte über die Gefahren mechanischer Rambos und die Frage, wie man eine Rüstungsspirale verhindern könnte, müsste jedoch erst entstehen.

Nichts ist dagegen einzuwenden, dass Scooby Doo & Co Sprengfallen räumen oder Blechkameraden verwundete Soldaten aus Situationen retten, in die sich kein menschlicher Sanitäter wagt. Aber Waffen brauchen sie dazu nicht.