Man kennt das Szenario aus dem Kino: Feindliche Roboter oder verrückt gewordene Maschinen verwandeln sich in Killermaschinen. Sie töten ohne Mitleid und verfolgen ihre Opfer bis in den letzten Winkel. Es macht für sie keinen Unterschied, ob der Gegner verletzt, unschuldig oder friedliebend ist.

Möglicherweise ist dieses Szenario weitaus weniger Science-Fiction als manche glauben mögen. Unbemannte aber bewaffnete Flugzeuge etwa sind längst Praxis aktueller Kriege. Schätzungen gehen davon aus, dass in diesem Jahr allein in Pakistan bereits bis zu 598 Menschen durch amerikanische Drohnen getötet wurden. Das ist ein starker Zuwachs. Zwischen 2004 und 2007 gab es 109 Tote durch Drohnenangriffe. Wobei dem sogenannten Kampf gegen den Terrorismus, also angeblich gezielten Angriffen auf Taliban, in ungefähr dreißig Prozent der Fälle Zivilisten zum Opfer fallen, wie die Counterterrorism Strategy Initiative ermittelt hat.

Vor allem westliche Staaten arbeiten daran, autonome, unbemannte und aus der Ferne zu steuernde Militärtechnik zu entwickeln, sagt Niklas Schörnig von der Hessischen Stiftung für Frieden und Konfliktforschung. Dahinter stehe unter anderem die Fiktion eines "bloodless war", eines Krieges ohne Verluste, zumindest an eigenen Truppen. Maschinen sind zudem weitaus billiger als Soldaten. Und sie brauchen nach der Rückkehr keinen Psychologen.

Kürzlich trafen sich Mitglieder von ICRAC, dem International Comittee for Robot Arms Control und des Forschungsverbandes Naturwissenschaft, Abrüstung und internationale Sicherheit (FONAS) im Kreis weiterer Experten in Berlin, um ein gemeinsames Papier zu formulieren. Es liest sich wie eine deutliche Warnung davor, weiter bewaffnete Roboter und unbemannte Fahrzeuge zu entwickeln und in bewaffneten Konflikten einzusetzen.

"Die langfristigen Risiken durch die Proliferation und weitere Entwicklung dieser Waffen übertreffen alles, was sie an kurzfristigen Nutzen auch immer zu haben scheinen", heißt es darin. Bewaffnete Roboter wären in der Lage, internationales Menschenrecht zu unterminieren, sie könnten zu neuen Kriegen führen und Rüstungswettläufe anheizen. Automatische Systeme würden das Tempo des Kriegsgeschehens weiter erhöhen und damit die Zahl unschuldiger Opfer. Schon jetzt sei es für die Verantwortlichen schwer, unter Zeitdruck die richtigen Entscheidungen zu treffen.

Dazu kommt die Sorge, dass Roboter mit nuklearen Waffen bestückt oder im Weltraum eingesetzt werden könnten. Und die Zweifel, ob automatische Systeme je in der Lage sein werden, zwischen Soldaten und Zivilbevölkerung zu unterscheiden. 

Die Wissenschaftler fordern in dem Papier mehrheitlich, dass niemals eine Maschine über den Einsatz von Gewalt oder Zwangsmaßnahmen entscheiden dürfe. Immer müsste ein Mensch für die Entscheidung und ihre Konsequenzen verantwortlich gemacht werden können. "Es sollte ein Recht geben, nicht von einem Roboter getötet zu werden", bringt es Rob Sparrow auf den Punkt. Sparrow ist Mitbegründer von ICRAC und Ethiker an der Monash Universität in Melbourne.