Staaten, die automatisierte Waffensysteme – also Roboter – entwickeln und einsetzen können, haben einen militärischen Vorteil: Sie können die Kriegsführung beschleunigen. Die Technologie erlaubt es, dass sich der langsame Mensch zunehmend aus dem Verständnis- und Entscheidungsprozess im Schlachtfeld zurückziehen und das taktische Handeln an Maschinen delegieren kann – in Zukunft möglicherweise bis hin zur Entscheidung über den Einsatz tödlicher Gewalt. Die Automatisierung der Kriegsführung ist daher ein Fall für die internationale Rüstungskontrolle, die jedoch gerade an Unterstützung verliert.

In Zeiten internationaler Krisen und Rüstungswettläufe sind die Interessengegensätze der Staaten oft so groß, dass gemeinsame Regelungen für Rüstungsgüter und ihren Einsatz nicht beachtet und erst recht nicht neu beschlossen werden. Dabei ist eine starke Rüstungskontrolle auch heute wichtig, um potenziell negative Auswirkungen von neuen Technologien zu begrenzen. Neben dem Cyberraum, also der Digitalisierung der Kriegsführung, bereiten Roboter im Krieg besonderes Kopfzerbrechen: Sie sind völkerrechtlich unreguliert.

Schon heute assistiert der Computer dem Menschen in Waffensystemen bei der Zielauswahl und ihrer Priorisierung.  Ein Rechner kann zum Beispiel bei schnell ablaufenden Angriffen wie mit Raketen die Verteidigung übernehmen. Dabei wird der Kontrollverlust in Kauf genommen, weil er militärische Vorteile bringt und die Maschinen in eng begrenzten Handlungsspielräumen und wenig komplexen Umfeldern agieren. Der Trend aber geht dazu, maschinelle Entscheidungsunterstützung auch in komplexeren Situationen zu nutzen, nicht nur als Assistenzsystem für den Menschen, sondern auch für das autonome Funktionieren von Maschinen.


In den Vereinten Nationen wird der Einsatz von militärischer Robotik im Rahmen der UN-Waffenkonvention (CCW) diskutiert und verhandelt. Am Ende dieser Verhandlungen könnte ein neues Protokoll stehen, das die Nutzung von letalen autonomen Waffensystemen (LAWS) reguliert. Ethische Grundlage dafür soll laut einer Empfehlung der CCW-Vertragsstaaten die Norm sein, dass beim Einsatz von tödlicher Gewalt eine "angemessene menschliche Eingriffsmöglichkeit" zentral ist.

Dieser Grundsatz hat sich in den Verhandlungen der letzten Jahre auf Betreiben vieler Nichtregierungsorganisationen und einiger Staaten herauskristallisiert, auch wenn diese eine weitreichendere Norm forderten. Die aktuelle Formulierung ist durch den weiten Interpretationsspielraum politisch attraktiv, ist leicht verständlich und nimmt immerhin den ethischen Grundkonflikt dieser Technologie in den Blick: Darf der Mensch alle Entscheidungen an Maschinen delegieren oder sind manchmal Eigenschaften wie Selbstbewusstsein, Würde, Empathie und ein Verständnis von Intentionen eines potenziellen Gegners nötig?

Diese Fähigkeiten bilden die Grundlage für Prinzipien des humanitären Völkerrechts, und Experten bezweifeln mehrheitlich, dass diese je in Maschinen einprogrammiert werden können. Es mangelt allerdings an klaren Definitionen: Was ist ein LAWS, wie beschreibt man Autonomie, welche Qualität muss menschliche Kontrolle haben, um ausreichend zu sein? Wenn sich die Staaten am Ende zu einem neuen Protokoll für die CCW entschließen, werden diese Definitionen nötig sein.

Der Mensch sollte eine echte Kontrolle behalten

Die Empfehlung ist nur ein kleiner Schritt auf dem Weg zu einer verbindlichen Regulierung. Insofern hängt die Staatengemeinschaft bei der Rüstungskontrolle den technologischen Entwicklungen hinterher. Versagt hat sie aber nicht, denn in den Verhandlungen wurden grundlegende Fragen von Technologie und Krieg besprochen und ein erster (Minimal-)Konsens zur Regulierung von LAWS gefunden. Ein Erfolg, der auch dem deutschen Vorsitz der letzten beiden Treffen unter Botschafter Michael Biontino zu verdanken ist, der diese geduldig und umsichtig geleitet hat.

Vierzehn Staaten gehen über die Empfehlung hinaus und fordern eine Ächtung von LAWS. Ob sie sich durchsetzen können oder es wenigstens zu einer Begrenzung des Einsatzes von LAWS kommen wird, ist offen, ein Ergebnis frühestens 2018 zu erwarten. Die Technologie wird sich in dieser Zeit weiterentwickeln, und führende Staaten werden Fakten schaffen. Daher sollten sich jetzt weitere Länder zur Ächtung von LAWS bekennen und einfordern, dass der Mensch immer eine echte Kontrolle, nicht bloß eine "angemessene Eingriffsmöglichkeit" beim Einsatz von tödlicher Gewalt behalten muss.

Rückendeckung könnten sie durch eine abgestimmte Position der EU erhalten, nach der es bisher aber nicht aussieht. Umso wichtiger ist es, dass Deutschland weiterhin eine Führungsrolle übernimmt und mit gutem Beispiel vorangeht. Nationale Moratorien, also die Aussetzung der Entwicklung, Beschaffung oder Nutzung von LAWS, bis es eine geeignete Regulierung gibt, klare politische Positionen und transparente militärische Doktrinen können helfen. Im Koalitionsvertrag der aktuellen Regierung heißt es: "Deutschland wird (...) sich für eine völkerrechtliche Ächtung vollautomatisierter Waffensysteme einsetzen, die dem Menschen die Entscheidung über den Waffeneinsatz entziehen." Hier sind längst nicht alle Mittel ausgeschöpft.

Der Artikel erscheint auf der SWP-Homepage in der Rubrik "Kurz gesagt".