KriegsführungDas automatisierte Töten

Eine neue militärische Ära bricht an: Roboter ersetzen Soldaten. Dürfen wir die Entscheidung über Leben und Tod an Maschinen delegieren? von Tobias Hürter

Drohne Krieg USA

Diese US-Drohne fliegt bewaffnet, aber unbemannt  |  © Massoud Hossaini/AFP/Getty Images

Bagdad, 2004: Ein Kommando des Explosive Ordnance Disposal (EOD) der U. S. Army soll eine Bombe entschärfen. Die Soldaten in Schutzkleidung überspielen ihre Anspannung mit Humor. Witze fliegen hin und her. Sergeant Matt Thompson nähert sich als Erster dem Sprengsatz. Genau in diesem Moment drücken die versteckten Bombenleger die Fernzündung. Die Detonation zerreißt den Sergeant.

So beginnt der Film Hurt Locker, im März mit sechs Oscars ausgezeichnet. Derselbe Krieg, ähnliche Szene – diesmal in der wirklichen Welt: Wieder rückt ein EOD-Kommando aus. Scooby Doo nennen die Kameraden denjenigen, der sich an die Mine pirscht. Er rollt. Scooby Doo ist ein PackBot, ein Raupenfahrzeug mit putzig aufragendem Kamerakopf. Als er seinen Greifer an die Bombe legt, geht sie hoch. Scooby Doo ist Schrott. Die Soldaten laden ihn in eine Kiste und schicken ihn heim nach Boston, zu seinem Hersteller. Der Kommandant tippt eine E-Mail: »Wenn ein Roboter stirbt, muss ich keinen Brief an seine Mutter schreiben.«

Anzeige

Der Unterschied zwischen Film und Wirklichkeit: ein Menschenleben. Das ist das beste Argument für die Umwälzung, die sich gerade in der Militärtechnik vollzieht. Als die US-Streitkräfte 2003 den Irak besetzten, hatten sie keinen einzigen Roboter dabei. Heute rollen, fliegen und schwimmen mehr als 20.000 Blechkameraden unter ihrem Kommando. Aber sie entschärfen nicht nur Bomben, sie feuern auch welche ab.

Bundeswehr

Die deutsche Bundeswehr zierte sich lange beim Thema Kriegsroboter: Leere Kassen und die unvorhergesehene Last der Auslandseinsätze ließen wenig Raum für technische Spielereien. Doch die deutschen Generäle bemühen sich sichtlich, den Abstand zum Verbündeten USA klein zu halten.
In einem rätselhaften Crash endete der erste deutsche Einsatz einer Aufklärungsdrohne vom israelischen Typ Heron im März in Kundus. Nach der Landung kollidierte sie mit einem geparkten Transportflugzeug.

Drohnen

Derzeit führt das Aufklärungsgeschwader 51 der Luftwaffe bei Schleswig Euro-Hawk-Drohnen ein. Und für mehrere europäische Luftstreitkräfte entwickelt EADS die Drohne Talarion. Spätere Bewaffnung nicht ausgeschlossen – längst kursiert auf Rüstungsmessen die Prognose, der Tornado werde wohl der Luftwaffe letzter bemannter Kampfjet sein.

Afghanistan

In Afghanistan greift die Bundeswehr im Rahmen des Nato-Einsatzes auch schon auf Kampfdrohnen zurück. Sie kann von den Amerikanern entsprechende Luftunterstützung anfordern. Im Sommer letzten Jahres soll zum ersten Mal ein deutscher Offizier befohlen haben, dass eine Predator-Drohne mit Raketen ein Ziel angreift.
Am Boden erprobt das Heer Erkundungs- und Lastroboter. Ende Mai fand auf dem unterfränkischen Truppenübungsplatz Hammelburg zum dritten Mal die Leistungsschau M-Elrob statt, »mit dem Fokus auf kurzfristig realisierbare Robotersysteme«.

Roboter

Von schießenden Robotern wollte man aber bei der Bundeswehr nichts wissen – bis vor Kurzem jedenfalls. Bei der Tagung »Unmanned Vehicles« der Deutschen Gesellschaft für Wehrtechnik in Bad Godesberg sprachen Offiziere und Ministerialbeamte im vergangenen Jahr plötzlich unmissverständlich davon, unbemannte Systeme mit »Wirkmitteln« auszustatten, und von der »Einrüstung letaler Systeme«.

Politik

Mit ihrem Enthusiasmus muss das Militär aber noch die Politik anstecken. »Bewaffnete autonome Systeme lösen kein Problem, das wir haben«, sagt Hans-Peter Bartels, der für die SPD im Verteidigungsausschuss des Bundestags sitzt, »das amerikanische Vorbild zeigt, dass sie höchstens die Illusion einer Problemlösung erzeugen.«

Scooby Doo und Co sind, militärisch gesehen, die logische Antwort auf den asymmetrischen Krieg der Bombenleger und Selbstmordattentäter. Im ersten Jahr des gegenwärtigen Irakkriegs hatten es die Invasoren mit 5607 Sprengfallen zu tun. Seither stieg die Zahl auf rund 30.000 pro Jahr. Viel zu tun für die EOD-Teams, wenig Zeit für Feinarbeit. Oft lassen sie ihre Roboter einfach an der Bombe rütteln, bis sie explodiert. Ein PackBot kostet 50.000 Dollar. Genauso viel, wie der irakische Widerstand als Kopfgeld ausgesetzt hat – für jeden toten EOD-Soldaten.

Im Jahr 2001 – und zwar schon vor dem elften September – hatte der Kongress die schrittweise Umstellung der Streitkräfte auf unbemannte Technik beschlossen. Ein Drittel der US-Truppe sollte durch Roboter ersetzt werden, bis 2010 in der Luft durch unbemannte Flugzeuge (»Drohne«), bis 2015 auch am Boden. Die erste Zielmarke ist längst erreicht. Und im vergangenen Jahr wurden in den USA schon mehr Drohnenoperateure ausgebildet als Kampf- und Bomberpiloten zusammengezählt. Zum bevorzugten Mittel der Terroristenjagd in Pakistans Bergen erklärte Präsident Barack Obama die Drohnen vom Typ Predator und Reaper – fliegende Kampfroboter, bestückt mit lasergelenkten Luft-Boden-Raketen.

Diese Roboter erweitern nicht einfach das Arsenal, sie ändern die Spielregeln. Den Vietnamkrieg haben die USA nicht wegen der Millionen zivilen Opfer abgebrochen, sondern aufgrund 60.000 toter Soldaten aus den eigenen Reihen. Im Irak steht der body count der US-Streitkräfte noch unter 4500. Dennoch fürchtet man in Washington nichts mehr als Bilder von Leichensäcken. Lassen sich mit (teil)automatisierten Armeen Kriege führen, die sonst politisch nie durchsetzbar wären?

Die Technologie erzeugt eine Paradoxie: Zwar schützen die Roboter heute das Leben der EOD-Teams im Irak. Aber ohne die Blechkameraden wären diese Soldaten vielleicht gar nicht dort.

Leserkommentare
  1. Erst, wenn Maschinen zu denken beginnen, sind Maschinen keine reinen Werkzeuge des Menschen mehr.

    Wie alle Werkzeuge, etwa das Flugzeug, ist es noch der Mensch, der effizienter in der Lage ist andere auszulöschen. Es geht also nicht nur darum, wie suggeriert, eigene Verluste zu mildern, sondern effizienter zu töten. Im Konfliktfall können wir auf denjenigen, der das Ding steuert oder anweist, verweisen. Es ist auch nicht das Gewehr, das einen automatischen Zielsucher hat, Schuld am Tod eines Menschen, sondern der Soldat, der das Ding bedient hat. Man denke an Autos, die andere in den Tod reißen und Rückrufaktionen, Klagen.

    Was Sie fragen, ist das Science-Fiction-Horrorszenario schlechthin: Werfen recht selbstständige Maschinen Moralfragen auf? Darf man sie moralisch einschränken? Was passiert, wenn diese Schranken aus Effizienzgründen umgangen werden? Was passiert, wenn unsere techn. Möglichkeiten noch zu primitiv für wirklich eigenverantwortliche Maschinen sind? Es könnte sein, das wir bloß recht schlaue Roboter-Cowboys ohne Moralfunktionen entwickeln können, die nicht lernen.

    Mir ist ein Roboter, der denken, sich wahrnehmen kann, lieber als eine Maschine, die nur schlau tötet und einprogrammierte Moralvorstellungen erhalten hat. Von der denkenden Maschine erhoffe ich mir, dass sie selbst in Zweifel über ihr Handeln gerät oder, dass sie imstande ist in großen Zusammenhängen zu denken, was Moral einschließt.

    Reaktionen auf diesen Kommentar anzeigen
    • Ijon
    • 04. Juli 2010 11:36 Uhr

    Am Beispiel der Feinderkennung: Diese Maschinen erkennen zum Beispiel Menschen. Das heißt, sie haben Algorithmen eingebaut, die letztlich irgendwo eine Leitung auf "1" setzen, wenn ein Muster "Mensch" in der Kamera auftaucht. Mit denselben Algorithmen könnten Sie auf Ihrem PC Schuhabdrücke vergleichen. Es ist unsinnig, Algorithmen entwickeln zu wollen, die "moralische Fragen" lösen können. Weil es in der Natur der Sache liegt, dass solche Fragen nur von Menschen gelöst werden können.

    Dass die Öffentlichkeit sich so darauf versteift, dieser Art von Maschinen die Fähigkeit zuzusprechen, irgendwie "moralisch handeln" zu können, liegt einzig und allein daran, dass diese Maschinen eben mit Waffen ausgestattet sind. Dadurch werden die Leute beunruhigt. Um die Gefährlichkeit, die durch die Maschinen ausgeht, auf etwas bekanntes reduzieren zu können, hätte man gerne eine Art "maschinelles Gewissen", was eine vollkommen perverse Vorstellung ist.

    In Wahrheit liegt die ganze Verantwortung bei den Operateuren und bei den Erschaffern (Ingenieuren) dieser Maschinen. (Sogar, wenn die Maschinen sog. "autonome" Entscheidungen treffen können.) Darüber sollten sich die Techniker mal klar werden. Die moralischen Fragen haben sich kein bisschen geändert, nur weil jetzt das Maschinengewehr in eine Metallklaue statt in einer Hand liegt. Nach dieser Erkenntnis braucht man auch nicht mehr solche seltsamen Krücken, wie diesen Maschinen ein "moralisches Bewusstsein" einzuimpfen.

    • zd
    • 04. Juli 2010 11:19 Uhr

    es koennte jetzt sehr provokativ klingen, aber...

    die entwicklung der kampfroboter kam als atwort, auf islamische terroristen, die nicht nur bereit und willens sind unschuldige zu toeten, sondern auch eigenes leben nicht schaetzen.

    natuerlich muss die debate um die moralische aspekte gefuehrt werden. man darf sich nicht durch maschinen, der verantwortung entziehen.

    wie schon in dem text richtig erwaehnt wurde, sind die kampfroboter oder besser gesagt ferngesteurte kampfmaschinen, eine logische antwort auf assymetrische kriegsfuehrung.

    ich hoffe, dass die roboter das sein werden, was die jihadisten davon abhalen wird, ihre suizide wuensche mit opferung unschuldiger fuer den allah, zu verwirklichen.

    Reaktionen auf diesen Kommentar anzeigen

    aber auch die abendländischen Kriegsteilnehmer nehmen unschuldige Opfer in Kauf. Nicht umsonst haben sie ein gehöriges Arsenal an Euphemismen und eine gewisse Routine bei den unvermeidbaren Presseerklärungen entwickelt. Günstig wirkt sich dabei für sie aus, dass für an einer Hand abzählbare "Kollateralschäden" oder "mutmaßliche Unterstützer" bzw. "tragische Unfallopfer" bei einem Einsatz von der Öffentlichkeit kaum noch die nötige Aufmerksamkeit aufgebracht werden kann. Aber in den Fällen wo Dutzende Unschuldige zu Tode kommen muss man sich - zum Glück! - auch heute noch rechtfertigen.
    Was die Inkaufnahme des eigenen Todes im Vergleich zur Wertschätzung des Lebens angeht: "Märtyreroperationen" bzw. "Selbstmordattentate", je nachdem in welchem Einzugsgebiet Sie darüber sprechen, gehören auch zum Ausbildungsprogramm abendländischer Offiziere. Amerikanische Soldaten binden sich meist keinen Sprengstoff um den Bauch, aber sie müssen Befehle befolgen und im Zweifel schließlich ihr eigenes Leben mit aufs Spiel setzen. Verachten sie deswegen das Leben? Krieg ist nicht sauber, kein Computerspiel, das wissen außer den Amerikanern eigentlich alle. Bzw. die wissen es auch, sie versuchen es nur zwischendurch immer wieder so gut wie es geht zu vergessen.
    Hätten die gegnerischen Kombattanten bzw. Terroristen Drohnen zur Verfügung, würden sie diese wahrscheinlich selbst auch lieber einsetzen, ich denke da gehen die Wertvorstellungen gar nicht so weit auseinander, was das Leben betrifft.

    • zd
    • 04. Juli 2010 17:13 Uhr

    "Amerikanische Soldaten binden sich meist keinen Sprengstoff um den Bauch, aber sie müssen Befehle befolgen und im Zweifel schließlich ihr eigenes Leben mit aufs Spiel setzen. "

    nicht nur die amerikanischen soldaten, sondern jeder soldat muss sein tod in kauf nehmen. in einem krieg stehen die kriegsziele hoeher als das menschliche leben (sonst wuerde ja, keiner kriege fuehren). vor jedem einzelnen einsatz muss man abwiegen ob die ziele mit den moeglichen verluste rechtfertigen. aber im grossen und ganzen weisst man, dass wenn nicht dieses mal, dann spaetestens nach dem 20 einsatz verletzte und tote geben wird.

    man sieht, dass sie nie als soldat im krieg gewesen sind. in einem kampf muessen einzelne ab und zu grosses risiko auf sich nehmen um die eigene position zu verbessern. wenn aus einer strasse geschossen wird, so muss man oft einen zweiten mann auf die andere strassenseite bringen um einfach mehr waffen richtung feind zu haben. und da muss halt jemand sehr schnel auf die andere strassenseite unter beschuss rennen.

    jetzt zu jihadisten. genau so wie zur zeiten der kreuzzuege, wird der tod im kampf seitens der moslems gewuenscht. und seit 20 jahren ist es auch "erlaubt" in einer unbewaffneten menschenmenge sich in die luft zu jaggen um auch als heiliger zu gelten. so eine kultur gibt es nicht im westen. es wird gekaempft um zu leben die radikalen moslems kaempfen um zu sterben. punkt. es gibt regelrechten maertyrertourismus in alle kampfgebiete...

    kwT

  2. "Der Unterschied zwischen Film und Wirklichkeit: ein Menschenleben. Das ist das beste Argument für die Umwälzung, die sich gerade in der Militärtechnik vollzieht"

    Also sind diejenigen, die aus der Ferne von den Drohnen getötet werden keine Menschen?

    Reaktionen auf diesen Kommentar anzeigen
    • zd
    • 04. Juli 2010 11:31 Uhr

    "Diesen Satz kann man auch missverstehen"

    ja natuerlich und zwar wenn man ihn aus dem zusammenhang reisst, so wie sie es getan haben.

    Hallo
    Es sind Gegner die ihrerseits darauf aus sind Menschen zu töten.
    Es mag Sie befremden, aber im Krieg zählen die eigen Leute mehr als der Gegner.
    Gruss
    Rene

    • zd
    • 04. Juli 2010 11:31 Uhr
    4. @erich

    "Diesen Satz kann man auch missverstehen"

    ja natuerlich und zwar wenn man ihn aus dem zusammenhang reisst, so wie sie es getan haben.

    Reaktionen auf diesen Kommentar anzeigen

    Es zählen nicht die eigenen Leute (siehe Mailer). Den Militärs ist es egal, wieviele Menschen sie verheizen. Nachschub gibt es ja genug (Wirtschaftskrise, Immigranten). Was die Militärs fürchten ist ein Umschwung der öffentlichen Meinung.

    Zur Dehumanisierung: Schauen Sie sich einmal das wikileaks-Video an. Dann schauen Sie es sich noch einmal an. Besonders die Kommentare der Piloten/Schützen sind unerträglich.

    Eine Aufgabe für die besonders Fleissigen: Recherchieren Sie, wer denn eigentlich angeklagt wird. Die feigen und grossmäuligen Piloten oder derjenige, der das Video veröffentlicht hat und derjenige, der das tote Kind aus dem Van zog und es in ein Krankenhaus bringen wollte? Die Antwort konnte für eine kognitive Dissonanz sorgen.

  3. 5. Nein.

    Hallo
    Es sind Gegner die ihrerseits darauf aus sind Menschen zu töten.
    Es mag Sie befremden, aber im Krieg zählen die eigen Leute mehr als der Gegner.
    Gruss
    Rene

    Reaktionen auf diesen Kommentar anzeigen

    ich kann ihnen nur wünschen niemals als "Gegner" von irgendeiner Schraddelkiste erkannt zu werden.

    Allerdings ist ja das der Punkt: Es steht nicht mehr im Zweifelsfall Soldatenleben gegen "feindliches" Soldatenleben, sondern rein monetärer Geldwert der Schraddelkiste gegen "feindliches" Soldaten leben. Also Geld gegen Menschenleben um es aufs Drastische zu reduzieren.

    Ich frage sie: darf eine Maschine darauf programmiert werden aus "Notwehr" zu töten?

    • Ijon
    • 04. Juli 2010 11:36 Uhr

    Am Beispiel der Feinderkennung: Diese Maschinen erkennen zum Beispiel Menschen. Das heißt, sie haben Algorithmen eingebaut, die letztlich irgendwo eine Leitung auf "1" setzen, wenn ein Muster "Mensch" in der Kamera auftaucht. Mit denselben Algorithmen könnten Sie auf Ihrem PC Schuhabdrücke vergleichen. Es ist unsinnig, Algorithmen entwickeln zu wollen, die "moralische Fragen" lösen können. Weil es in der Natur der Sache liegt, dass solche Fragen nur von Menschen gelöst werden können.

    Dass die Öffentlichkeit sich so darauf versteift, dieser Art von Maschinen die Fähigkeit zuzusprechen, irgendwie "moralisch handeln" zu können, liegt einzig und allein daran, dass diese Maschinen eben mit Waffen ausgestattet sind. Dadurch werden die Leute beunruhigt. Um die Gefährlichkeit, die durch die Maschinen ausgeht, auf etwas bekanntes reduzieren zu können, hätte man gerne eine Art "maschinelles Gewissen", was eine vollkommen perverse Vorstellung ist.

    In Wahrheit liegt die ganze Verantwortung bei den Operateuren und bei den Erschaffern (Ingenieuren) dieser Maschinen. (Sogar, wenn die Maschinen sog. "autonome" Entscheidungen treffen können.) Darüber sollten sich die Techniker mal klar werden. Die moralischen Fragen haben sich kein bisschen geändert, nur weil jetzt das Maschinengewehr in eine Metallklaue statt in einer Hand liegt. Nach dieser Erkenntnis braucht man auch nicht mehr solche seltsamen Krücken, wie diesen Maschinen ein "moralisches Bewusstsein" einzuimpfen.

    Reaktionen auf diesen Kommentar anzeigen

    "...Weil es in der Natur der Sache liegt, dass solche Fragen nur von Menschen gelöst werden können.

    Um die Gefährlichkeit, die durch die Maschinen ausgeht, auf etwas bekanntes reduzieren zu können, hätte man gerne eine Art "maschinelles Gewissen", was eine vollkommen perverse Vorstellung ist.

    In Wahrheit liegt die ganze Verantwortung bei den Operateuren und bei den Erschaffern (Ingenieuren) dieser Maschinen...."

    Auch ist richtig, dass wir mit solchen Drohnen den asymmetrischen Krieg noch asymmetrischer machen und das Ungerechtigkeits- und Ohnmachtsgefühl noch verstärken.

    Es wird zum Gegenteil dessen führen, was angestrebt ist, nämlich zum eskalieren der Untaten entrechteter.

    Ich stimme Ihnen durchaus zu. Allerdings ist unsere Kultur im Begriff, sich zu ändern. Ihre weisen Worte können schon morgen als Ketzerei gegen die Maschinengläubigkeit gelten, mit der wir Menschen unser schlechtes Gewissen kurzzuschließen versuchen. Hoffentlich ist diese Entwicklung noch aufzuhalten!

  4. ... wenn die eine Seite nicht mal mehr ihr Leben riskieren muss, um in Schussweite zum Gegner zu kommen natürlich noch ein Stück unsymmetrischer. Es steht zu befürchten, dass das auf der anderen Seite - und in weniger militärisch denkenden Kreisen der eigenen Seite - noch mehr Ungerechtigkeitsempfinden erschaffen wird.

    Wie daraus Frieden entstehen soll, müssen uns die Militärs noch zeigen - Scherz beiseite - ich fürchte, sie sind fest entschlossen, das zu demonstrieren.

    Aus der Jagd nach Osama, ist ein Krieg gegen Breite Bevölkerungsschichten geworden. Jetzt kann man nur noch hoffen, dass die Bodenschätze in Afghanistan das Unglück der Menschen dort tatsächlich rechtfertigen.

    Reaktionen auf diesen Kommentar anzeigen

    Derselbe Gedanke kam mir auch beim Lesen. Der Krieg wird einfach asymmetrischer, was zu mehr Ungerechtigkeitsempfinden führt und eben auch zur Anpassung der Gegner. Frieden wird auf diese Weise sicher nicht geschaffen werden können, aber das liegt ja auch gar nicht im Gedankenbereich der Militärs. Dort geht es ums gewinnen. Nicht einmal um die Schonung der eigenen Soldaten. Die werden sogar zum Problem wenn sie überleben, weil sie als Kriegsversehrte Heereszersetzung in der Heimat betreiben. Viel Moral steckt da also nicht hinter, sondern nur reines Machtdenken und Vernichtungswahn, der auch durch Roboter nicht menschlicher wird. Mit Verteidigung hat das auch nichts zu tun, was ja ständig behauptet wird.

    Heckenschützen auf der einen Seite, die als Kämpfer nicht zu ohne weiteres zu identifizieren sind und auf der anderen Seite Soldaten, die an ihren Uniformen erkennbar, wie auf dem Präsentierteller dahermarschieren. Was ist daran gerecht? Sollen die Soldaten nun auch in Zivil kämpfen?

Bitte melden Sie sich an, um zu kommentieren

Service