Kriegsführung : Das automatisierte Töten
Seite 2/3:

Die Namen der Kampfmaschinen klingen wie aus Hollywood-Fantasien

Aus Sicht der Kommandeure scheinen Roboter die besseren Soldaten zu sein. Sie sind auf dem Schlachtfeld furchtlos, kennen weder Schmerz noch Müdigkeit. Sie bekommen keine Albträume, kehren nicht traumatisiert aus dem Krieg heim, und sollten sie dem Feind in die Hände fallen, taugen sie nicht als Geiseln. »Das 5000 Jahre alte Monopol des Menschen darauf, im Krieg zu kämpfen, bricht jetzt zusammen«, sagt der Politologe Peter Singer. Der Direktor an der Brookings Institution in Washington berät sowohl das Pentagon als auch die CIA, ist Experte für den automatisierten Krieg. Wie kein Zweiter erlangte er Einblick in die militärische Umwälzung, die sich gerade vollzieht. Im vergangenen Jahr erschien sein Buch Wired for War (»Für den Krieg verdrahtet«) über »die Robotikrevolution und Konflikte im 21. Jahrhundert«. Singer beschreibt darin, wie weit Kriegsroboter bereits Realität sind.

Die Namen der Kampfmaschinen klingen wie aus Hollywood-Fantasien à la Terminator oder Transformers: Predator, Reaper, Swords, Crusher, Dragon Runner. Bisher sind es noch konventionelle Geräte, surrende Miniraupen, Flugroboter mit knatterndem Turboprop, schwer stapfende künstliche Lastesel und Elektrotauchboote.

Die USA sind ihren Verbündeten und Gegnern weit voraus auf dem Gebiet der autonomen Kampfmaschinen, aber die anderen ziehen mit. Rüstungswettläufe seien absehbar, sagt die Technikphilosophin Jutta Weber und plädiert für eine rasche Rüstungskontrolle (siehe Interview Seite 34). »Der Geist lässt sich nicht mehr zurück in die Flasche sperren«, warnen auch die Herausgeber des renommierten Scientific American in der aktuellen Ausgabe des Magazins, »aber die Entwicklung der Technologie einzufrieren könnte den Schaden begrenzen.«

Mindestens 44 Staaten setzen bereits Militärroboter ein. Die israelische Armee planiert Palästinensersiedlungen im Gaza-Streifen mit 60 Tonnen schweren Roboterbulldozern. Südkorea ist dabei, an der Grenze zum verfeindeten Norden Hunderte von bewaffneten Wachrobotern zu stationieren. Die britische Polizei will für Olympia 2012 das gesamte Land mit umgebauten Militärdrohnen observieren. Nur die Japaner, sonst so roboterversessen wie keine andere Nation, zögern beim Bau von Kampfautomaten. Die deutsche Bundeswehr zierte sich jahrelang, mittlerweile sieht das anders aus (siehe Kasten Seite 34). Und der europäische Rüstungskonzern EADS fordert von Deutschland, Frankreich und Spanien ein Bekenntnis zur Drohne Talarion.

Jahrtausende ist die Entwicklung schon alt, die sich hier fortsetzt: Kontrahenten rücken immer weiter auseinander. Einst schlug man mit Fäusten, Knüppeln und Schwertern aufeinander ein. Mit Waffen zum Werfen oder Schießen wuchs die Distanz. Die Kämpfenden bekamen einander immer seltener zu Gesicht. Rüstungsexperte Peter Singer besuchte Drohnenpiloten, die Tausende Kilometer vom Kriegsschauplatz entfernt auf einem Stützpunkt nahe Las Vegas sitzen – Krieger in Sesseln vor Bildschirmen und Joysticks. Nach Dienstende steigen sie ins Auto und fahren zu ihren Familien zum Abendessen. Der Kampf als Ballerspiel. Kein Wunder, dass die Hemmschwelle sinkt. »Wie jeder weiß, der schon mal Grand Theft Auto gespielt hat«, sagte ein junger Drohnenflieger zu Singer, »tun wir in Videospielen Dinge, die wir von Angesicht zu Angesicht nie tun würden.«

Immerhin sind es noch Menschen, die da steuern. Gern betonen die US-Militärs, dass bei Roboterschüssen ein Mensch zuoberst in der Befehlskette steht. Zumindest die »Grundentscheidungen« träfen Menschen. Colonel Eric Mathewson, Direktor der Unmanned Aircraft Systems Task Force der US-Luftwaffe drückte es gegenüber dem Magazin Popular Mechanics so aus: »Die Regeln für die derzeitigen Kampfeinsätze unbemannter Flugzeuge sehen vor, dass in jedem Fall jemand seine Zustimmung geben muss.« Aber was heißt das genau? Genehmigen sie jeden einzelnen Schuss? Oder gibt der Operateur nur abstrakt den Auftrag und das Zielgebiet vor? Der Wortlaut der Einsatzregeln aber ist geheim, und auch er spiegelt nicht unbedingt die Wirklichkeit in den Kriegsgebieten. Es kursieren Berichte über amerikanische Drohnen, die selbstständig Tötungsmissionen geflogen sein sollen – freilich ohne offizielle Bestätigung. »Es gibt nicht viele Fälle von freiem Feuer«, sagt Colonel Mathewson, »Fälle, in denen das System also völlig automatisiert arbeitet.« Dass das sehr vage klingt, ist wohl Absicht.

Man muss kein Spion sein, um zu erkennen, dass der Einsatz von Robotern, die völlig autonom entscheiden, wann sie feuern, eine Frage des Wann sind, nicht des Ob. Die Grenzüberschreitung ist nur ein Software-Update entfernt. »Glauben Sie nicht, dass das nicht kommt«, sagt Peter Singer, »ich weiß von mindestens vier Pentagon-Projekten dazu.« Wenn die US-Armee ihre Automatisierungspläne weiter verwirklichen will, kommt sie gar nicht umhin, ihren Robotern immer mehr Selbstständigkeit einzuräumen. »Ferngelenkte Systeme brauchen viel unterstützendes Personal«, sagt Noel Sharkey von der Sheffield University, »offensichtlich kann kein einzelner Soldat mehrere Roboter steuern.« Der britische Roboterforscher folgert: »Autonome Kampfmaschinen dürften in naher Zukunft unvermeidbar sein.«

Verlagsangebot

Lesen Sie weiter.

Noch mehr faszinierende Wissenschaftsthemen jetzt im digitalen ZEIT WISSEN-Abo.

Hier sichern

Kommentare

51 Kommentare Seite 1 von 7 Kommentieren

Ja, denkende Maschinen und Moral

Erst, wenn Maschinen zu denken beginnen, sind Maschinen keine reinen Werkzeuge des Menschen mehr.

Wie alle Werkzeuge, etwa das Flugzeug, ist es noch der Mensch, der effizienter in der Lage ist andere auszulöschen. Es geht also nicht nur darum, wie suggeriert, eigene Verluste zu mildern, sondern effizienter zu töten. Im Konfliktfall können wir auf denjenigen, der das Ding steuert oder anweist, verweisen. Es ist auch nicht das Gewehr, das einen automatischen Zielsucher hat, Schuld am Tod eines Menschen, sondern der Soldat, der das Ding bedient hat. Man denke an Autos, die andere in den Tod reißen und Rückrufaktionen, Klagen.

Was Sie fragen, ist das Science-Fiction-Horrorszenario schlechthin: Werfen recht selbstständige Maschinen Moralfragen auf? Darf man sie moralisch einschränken? Was passiert, wenn diese Schranken aus Effizienzgründen umgangen werden? Was passiert, wenn unsere techn. Möglichkeiten noch zu primitiv für wirklich eigenverantwortliche Maschinen sind? Es könnte sein, das wir bloß recht schlaue Roboter-Cowboys ohne Moralfunktionen entwickeln können, die nicht lernen.

Mir ist ein Roboter, der denken, sich wahrnehmen kann, lieber als eine Maschine, die nur schlau tötet und einprogrammierte Moralvorstellungen erhalten hat. Von der denkenden Maschine erhoffe ich mir, dass sie selbst in Zweifel über ihr Handeln gerät oder, dass sie imstande ist in großen Zusammenhängen zu denken, was Moral einschließt.

Wir sind weit davon entfernt, echte AI zu entwickeln

Am Beispiel der Feinderkennung: Diese Maschinen erkennen zum Beispiel Menschen. Das heißt, sie haben Algorithmen eingebaut, die letztlich irgendwo eine Leitung auf "1" setzen, wenn ein Muster "Mensch" in der Kamera auftaucht. Mit denselben Algorithmen könnten Sie auf Ihrem PC Schuhabdrücke vergleichen. Es ist unsinnig, Algorithmen entwickeln zu wollen, die "moralische Fragen" lösen können. Weil es in der Natur der Sache liegt, dass solche Fragen nur von Menschen gelöst werden können.

Dass die Öffentlichkeit sich so darauf versteift, dieser Art von Maschinen die Fähigkeit zuzusprechen, irgendwie "moralisch handeln" zu können, liegt einzig und allein daran, dass diese Maschinen eben mit Waffen ausgestattet sind. Dadurch werden die Leute beunruhigt. Um die Gefährlichkeit, die durch die Maschinen ausgeht, auf etwas bekanntes reduzieren zu können, hätte man gerne eine Art "maschinelles Gewissen", was eine vollkommen perverse Vorstellung ist.

In Wahrheit liegt die ganze Verantwortung bei den Operateuren und bei den Erschaffern (Ingenieuren) dieser Maschinen. (Sogar, wenn die Maschinen sog. "autonome" Entscheidungen treffen können.) Darüber sollten sich die Techniker mal klar werden. Die moralischen Fragen haben sich kein bisschen geändert, nur weil jetzt das Maschinengewehr in eine Metallklaue statt in einer Hand liegt. Nach dieser Erkenntnis braucht man auch nicht mehr solche seltsamen Krücken, wie diesen Maschinen ein "moralisches Bewusstsein" einzuimpfen.

sehr richtig Herr Tichy

"...Weil es in der Natur der Sache liegt, dass solche Fragen nur von Menschen gelöst werden können.

Um die Gefährlichkeit, die durch die Maschinen ausgeht, auf etwas bekanntes reduzieren zu können, hätte man gerne eine Art "maschinelles Gewissen", was eine vollkommen perverse Vorstellung ist.

In Wahrheit liegt die ganze Verantwortung bei den Operateuren und bei den Erschaffern (Ingenieuren) dieser Maschinen...."

Auch ist richtig, dass wir mit solchen Drohnen den asymmetrischen Krieg noch asymmetrischer machen und das Ungerechtigkeits- und Ohnmachtsgefühl noch verstärken.

Es wird zum Gegenteil dessen führen, was angestrebt ist, nämlich zum eskalieren der Untaten entrechteter.

es gibt tatsaechlich sehr viele bedenken

es koennte jetzt sehr provokativ klingen, aber...

die entwicklung der kampfroboter kam als atwort, auf islamische terroristen, die nicht nur bereit und willens sind unschuldige zu toeten, sondern auch eigenes leben nicht schaetzen.

natuerlich muss die debate um die moralische aspekte gefuehrt werden. man darf sich nicht durch maschinen, der verantwortung entziehen.

wie schon in dem text richtig erwaehnt wurde, sind die kampfroboter oder besser gesagt ferngesteurte kampfmaschinen, eine logische antwort auf assymetrische kriegsfuehrung.

ich hoffe, dass die roboter das sein werden, was die jihadisten davon abhalen wird, ihre suizide wuensche mit opferung unschuldiger fuer den allah, zu verwirklichen.

Das könnte jetzt provokativ klingen,

aber auch die abendländischen Kriegsteilnehmer nehmen unschuldige Opfer in Kauf. Nicht umsonst haben sie ein gehöriges Arsenal an Euphemismen und eine gewisse Routine bei den unvermeidbaren Presseerklärungen entwickelt. Günstig wirkt sich dabei für sie aus, dass für an einer Hand abzählbare "Kollateralschäden" oder "mutmaßliche Unterstützer" bzw. "tragische Unfallopfer" bei einem Einsatz von der Öffentlichkeit kaum noch die nötige Aufmerksamkeit aufgebracht werden kann. Aber in den Fällen wo Dutzende Unschuldige zu Tode kommen muss man sich - zum Glück! - auch heute noch rechtfertigen.
Was die Inkaufnahme des eigenen Todes im Vergleich zur Wertschätzung des Lebens angeht: "Märtyreroperationen" bzw. "Selbstmordattentate", je nachdem in welchem Einzugsgebiet Sie darüber sprechen, gehören auch zum Ausbildungsprogramm abendländischer Offiziere. Amerikanische Soldaten binden sich meist keinen Sprengstoff um den Bauch, aber sie müssen Befehle befolgen und im Zweifel schließlich ihr eigenes Leben mit aufs Spiel setzen. Verachten sie deswegen das Leben? Krieg ist nicht sauber, kein Computerspiel, das wissen außer den Amerikanern eigentlich alle. Bzw. die wissen es auch, sie versuchen es nur zwischendurch immer wieder so gut wie es geht zu vergessen.
Hätten die gegnerischen Kombattanten bzw. Terroristen Drohnen zur Verfügung, würden sie diese wahrscheinlich selbst auch lieber einsetzen, ich denke da gehen die Wertvorstellungen gar nicht so weit auseinander, was das Leben betrifft.

falsch

"Amerikanische Soldaten binden sich meist keinen Sprengstoff um den Bauch, aber sie müssen Befehle befolgen und im Zweifel schließlich ihr eigenes Leben mit aufs Spiel setzen. "

nicht nur die amerikanischen soldaten, sondern jeder soldat muss sein tod in kauf nehmen. in einem krieg stehen die kriegsziele hoeher als das menschliche leben (sonst wuerde ja, keiner kriege fuehren). vor jedem einzelnen einsatz muss man abwiegen ob die ziele mit den moeglichen verluste rechtfertigen. aber im grossen und ganzen weisst man, dass wenn nicht dieses mal, dann spaetestens nach dem 20 einsatz verletzte und tote geben wird.

man sieht, dass sie nie als soldat im krieg gewesen sind. in einem kampf muessen einzelne ab und zu grosses risiko auf sich nehmen um die eigene position zu verbessern. wenn aus einer strasse geschossen wird, so muss man oft einen zweiten mann auf die andere strassenseite bringen um einfach mehr waffen richtung feind zu haben. und da muss halt jemand sehr schnel auf die andere strassenseite unter beschuss rennen.

jetzt zu jihadisten. genau so wie zur zeiten der kreuzzuege, wird der tod im kampf seitens der moslems gewuenscht. und seit 20 jahren ist es auch "erlaubt" in einer unbewaffneten menschenmenge sich in die luft zu jaggen um auch als heiliger zu gelten. so eine kultur gibt es nicht im westen. es wird gekaempft um zu leben die radikalen moslems kaempfen um zu sterben. punkt. es gibt regelrechten maertyrertourismus in alle kampfgebiete...

Falsch

Es zählen nicht die eigenen Leute (siehe Mailer). Den Militärs ist es egal, wieviele Menschen sie verheizen. Nachschub gibt es ja genug (Wirtschaftskrise, Immigranten). Was die Militärs fürchten ist ein Umschwung der öffentlichen Meinung.

Zur Dehumanisierung: Schauen Sie sich einmal das wikileaks-Video an. Dann schauen Sie es sich noch einmal an. Besonders die Kommentare der Piloten/Schützen sind unerträglich.

Eine Aufgabe für die besonders Fleissigen: Recherchieren Sie, wer denn eigentlich angeklagt wird. Die feigen und grossmäuligen Piloten oder derjenige, der das Video veröffentlicht hat und derjenige, der das tote Kind aus dem Van zog und es in ein Krankenhaus bringen wollte? Die Antwort konnte für eine kognitive Dissonanz sorgen.

Glückwusch zu Ihrer Schwarz-Weiß-Sicht

ich kann ihnen nur wünschen niemals als "Gegner" von irgendeiner Schraddelkiste erkannt zu werden.

Allerdings ist ja das der Punkt: Es steht nicht mehr im Zweifelsfall Soldatenleben gegen "feindliches" Soldatenleben, sondern rein monetärer Geldwert der Schraddelkiste gegen "feindliches" Soldaten leben. Also Geld gegen Menschenleben um es aufs Drastische zu reduzieren.

Ich frage sie: darf eine Maschine darauf programmiert werden aus "Notwehr" zu töten?

sie verwechseln da etwas

den anklaeger geht es um die veroeffentlichung hochgemeir videoaufnahmen. und alle solche einsatzaufnahmen sind hochgeheim bis die zensur sie erlbaut.

die piloten gingen davon aus, dass es sich um terroristen handelt. sie bekamen auch gruenes licht fuer schiessen. die entscheidung wurde von der zentralle getroffen und nicht von ihnen selbst. d.h. es gab noch mindestens 2 personen, die das gesehen und erlaubt haben. so einfach wie sie das haben wollen, ist es nicht.

in westlichen armeen werden kriegsverbrechen angeklagt und oft fuer das ganze leben eingekerkert. in einem krieg passieren schlimme sachen. das liegt in seiner natur. einzelne soldaten begehen kriegsverbrechen - da kann man nichts machen, ausser sie gerichtlich zu verfolgen, was auch immer getan wird.

fakt ist, dass durch drohnen weniger unbeteiligte zum schaden kommen. am anfang der zweiten intifada in israel. wurde auf 2 tote zielpersonen bei targetkilling eine unbeteiligte getoetet. am ende der intifada vor zwei jahren war es schon bei 21 zu eins. ich will hier nicht aus menschenleben zahlen machen. aber fakt ist, dass man willens war und es auch schafte, unbeteiligte zu schonen.

Eine rhretorische Frage und doch so töricht...

Ich stelle folgende Frage:

Dürfen wir die Entscheidung über Leben und Tod einem anderen Wesen überlassen als dem Wesen selbst?

Da nimmt sich die bewaffnete Drohne doch als eine Potenzierung des sowieso schon schrecklichen Waffenmaterials nur als eine weitere Perversion aus.

Mögen alle Wesen glücklich sein.

Die Drohnen treffen die Entscheidung nicht selbst,

sie werden ferngeführt, ein Team von drei Leuten sitzt in einem Container am Boden und wertet die Daten aus. In diesem Container wird derzeit der Einsatz der Bewaffnung weiterhin durch einen Menschen entschieden.
Das kann sich eigentlich auch nicht von heute auf morgen ändern, jeder Pilot muss sich seine Feuerfreigabe holen, selbst der Drohnensteuer, der der Drohne sozusagen die Freigabe gibt, braucht selbst erst noch eine Freigabe.
Ob sich das in naher Zukunft ändern wird? Ich bezweifle das. Beim Militär ist man kein Fan von vollständig losgelöst operierenden Einheiten. Genauso schlimm ist es doch aber heute schon, wenn sie eine völlig unintelligente Bombe in einen Haufen Leute werfen bzw. einen Luftschlag anfordern, bei dem über 100 Menschen getötet werden. Diese Bomben gehen auch nicht Schritt für Schritt die 100 Gesichter durch und denken über moralische Werte und den Wert des Lebens nach. Also ist hier doch schon längst der Punkt erreicht, wo es in meinen Augen gar nicht mehr schlimmer werden kann. Die Anzahl der zivilen Opfer in den laufenden Kriegen übersteigt die Zahl der getöten Soldaten um Größenordnungen! Das 10-fache? 20-fache? 50-fache? Es ist schon vermessen, industriell interessante Entwicklungsprojekte mit Drohnen zu begründen mit der vermeintlich rücksichtsloseren Vorgehensweise des Gegners. Es gibt auch Kriege, die man selbst mit der übernächsten Drohnengeneration nicht gewinnen können wird, aber hier mache ich mal einen Punkt.