Als Technikskeptiker sind der Technologie-Unternehmer Elon Musk und der Google-Forscher Mustafa Suleyman nicht bekannt. Umso ernster ist ihre Forderung zu nehmen, die sie mit mehr als hundert Spezialisten für Robotik und künstliche Intelligenz (KI) Anfang der Woche auf einer internationalen Konferenz in Melbourne gestellt haben: Autonome Waffen sollen per UN-Waffenkonvention verboten werden.

Autonome Waffen, das sind Drohnen, Panzer oder Raketen, die ohne menschliche Hilfe Ziele erkennen und selbstständig losschlagen. Erste Exemplare derartiger Kriegsroboter existierten schon in den 1990er Jahren. Etwa Harpy, eine zwei Meter lange Drohne aus Israel. Vorgegeben war ihr nur die Zielregion, über der sie kreiste, bis sie ein Radarsignal empfing, das keine Freundkennung aufwies. Dann stürzte sie sich auf dessen Quelle, um sie zu zersprengen. Seither haben KI und Robotik gewaltige Fortschritte gemacht, digitale Kartografie und Kommunikationstechnik ebenfalls.

Freilich sind die Argumente gegen Killerroboter nicht allesamt zwingend. Aus heiterem Himmel zuschlagende Drohnen seien heimtückisch, heißt es beispielsweise – als gehöre Überraschung nicht seit je zur Kriegsführung. Ein anderes Argument lautet, die Verantwortung für das Töten werde an Maschinen delegiert. Doch letztlich bleiben Menschen verantwortlich, nämlich Programmierer und Befehlshaber.

Die Robotiker um Elon Musk führen ein besseres Argument ins Feld. Sie warnen, vollautomatisierte Waffen könnten bald schon Kriege in einem Tempo führen, dem der Mensch nicht mehr gewachsen ist. Der Mensch könnte die Kontrolle über das Geschehen verlieren. Der politisch stärkste Einwand allerdings lautet, dass Killerroboter die Risikoverteilung ändern. Der Angreifer riskiert nur den Verlust von Gerät, der Angegriffene hingegen kann unversehens und überall getroffen werden, auch weit hinter der Front. Ein solches Ungleichgewicht senkt die Schwelle zum Angriff und damit auch zur Eröffnung von Kriegen.

Also Rüstungskontrolle. Doch in welcher Form? Autonome Waffen auf die Verbotsliste der UN-Waffenkonvention zu setzen ist unrealistisch. Diejenigen Staaten, die sie bereits entwickeln, werden ihren Vorsprung hüten wollen. Ein Pakt wie der Atomwaffensperrvertrag von 1970, der die Verbreitung von Fähigkeiten zum Bombenbau begrenzte, kommt ebenso wenig infrage. Schon damals war es schwierig, militärische Forschung von ziviler abzugrenzen; im Fall von künstlicher Intelligenz ist das schier unmöglich.

Rüstungskontrolle kennt aber noch andere Mechanismen. Vereinbarungen über Transparenz zum Beispiel, außerdem Obergrenzen, etwa für das Maß an Autonomie sowie die Zahl oder Feuerkraft der Waffensysteme. Derartiges hat hin und wieder funktioniert. Die Mahner von Melbourne haben also recht: Jetzt muss verhandelt werden.