Rund 2.000 Forscher und Experten für Künstliche Intelligenz haben sich gegen den Einsatz von autonomen Waffensystemen ausgesprochen. In einem gemeinsamen Brief warnen sie vor einem Wettrennen bei der Einführung von Kampfrobotern, die anhand von definierten Kriterien selbst über das Leben eines Menschen entscheiden. Explizit ausgeschlossen von der Forderung sind von Menschen gesteuerte Kampfdrohnen, wie sie schon heute zum Einsatz kommen. Zu den Unterzeichnern gehören unter anderen der Astrophysiker Stephen Hawking, Apple-Co-Gründer Steve Wozniak und der Sprachwissenschaftler Noam Chomsky.

Die Nutzung solcher Waffensysteme könne so weitreichende Auswirkungen haben wie etwa die Entwicklung von Atomwaffen oder die Verwendung von Schießpulver, heißt es in dem Brief, der anlässlich einer Konferenz zum Thema in Buenos Aires veröffentlicht wurde. "Die Technologie hat einen Punkt erreicht, an dem autonome Waffensysteme binnen Jahren, nicht Jahrzehnten, angewandt werden könnten." Zwar könne Künstliche Intelligenz Kriege grundsätzlich sicherer machen. Offensiv angewandt aber würde sie zu höheren Todeszahlen führen.

"Autonome Waffen könnten zur Kalaschnikow von morgen werden", schreiben die Experten mit Blick auf die weite, unkontrollierte Verbreitung des sowjetrussischen Maschinengewehrs. Sollte ein Land mit der Entwicklung solcher Systeme beginnen, würden andere folgen. Am Ende würde ein Wettlauf wie bei der Entwicklung der Atombombe stehen. Es sei daher eine entscheidende Frage für die Menschheit, ob man diese Entwicklung nicht schon vor ihrem Beginn verhindern wolle.

Und auch abseits von kriegerischen Auseinandersetzungen sehen die Unterzeichner Gefahren. Anders als etwa ein Atomwaffenprogramm könne die Technologie nicht ohne Weiteres überwacht werden, da die Waffensysteme ohne schwer zugängliche Materialien hergestellt werden könnten. Darüber hinaus könnte die Technologie auch in Hände von Terroristen und Diktatoren fallen. Anschläge und Morde könnten die Folge sein.

Mit ihrem Brief unterstützen die Wissenschaftler und Experten Forderungen nach einem grundsätzlichen UN-Verbot für offensive autonome Waffensysteme. Prominente Vertreter der Gruppe wie Hawking und der US-Unternehmer Elon Musk hatten sich schon früher immer wieder gegen die Anwendung von Kampfrobotern ausgesprochen und sie als "größte existenzielle Bedrohung" und potenzielles "Ende der menschlichen Art" bezeichnet.

Ein Beispiel für einen Roboter, der militärisch eingesetzt werden könnte, ist  die 2013 vom US-Unternehmen Boston Dynamics vorgestellte Roboterkatze "Wild Cat".

Militärtechnik - Roboter-Wildkatze schafft 25 Kilometer pro Stunde US-Wissenschaftler von Boston Dynamics haben einen Tier-Roboter entwickelt. Er hat einen lauten Motor und rennt auf freier Strecke täuschend tierähnlich.