Dass Google direkt für das US-Verteidigungsministerium arbeitet, ist erst seit einigen Wochen bekannt. Nachdem Tausende Mitarbeiter des Unternehmens dagegen protestierten, verkündete es nun, den bis 2019 laufenden Vertrag mit dem Pentagon nicht zu verlängern. Seit 2017 hatte Google künstliche Intelligenz (KI) für das sogenannte "Project Maven" des Verteidigungsministeriums geliefert. Die Technologie soll das Videomaterial, das unbewaffnete US-Überwachungsdrohnen aufzeichnen, effizienter als bisher nach militärisch bedeutungsvollen Objekten absuchen. Das, so fürchten Kritiker, könne der Beginn einer neuen Art von Kriegsführung sein, in der Maschinen und nicht mehr Menschen entscheiden, wer und was ein militärisches Ziel sei – und es eigenständig bekämpfen könnten.

Der US-Sicherheitsexperte Paul Scharre, Senior Fellow am Washingtoner Thinktank Center for a New American Security (CNAS), warnt indes davor, dass KI-Forscher allein Generälen die Frage überlassen, wie die Software militärtechnologisch eingesetzt werden soll. Scharre beschäftigt sich in seinem neuen, im April in den USA erschienen Buch "Army of None: Autonomous Weapons and the Future of War" mit der Zukunft des Krieges.

ZEIT ONLINE: Herr Scharre, was ist "Project Maven" eigentlich – und wie wichtig ist es für das US-Verteidigungsministerium?

Paul Scharre: Project Maven steht innerhalb des Ministeriums zunächst vor allem für eine Neuerung bei der Beschaffung. Bürokratische Hürden wurden dafür beseitigt, um nicht nur mit den üblichen Rüstungsunternehmen zusammenarbeiten zu können, sondern auch mit Tech-Firmen wie Google – und so möglichst rasch neue Technologien wie etwa künstliche Intelligenz und Cloud-Computing für das Militär nutzbar zu machen. Im Fall von Project Maven geht es speziell darum, auf dem Markt frei verfügbare KI-Tools für Bildanalysen einzusetzen, um den riesigen Mengen an Videomaterial Herr zu werden, die Drohnen dem US-Militär liefern. Das ist mittlerweile eine derart große Masse, dass die Analysten nicht mehr hinterherkommen. Also setzt man dafür nun KI ein, die dank Machine Learning immer besser dabei wird, Objekte zu erkennen und zu klassifizieren. Künstliche Intelligenz ist darin schon seit Jahren besser als Menschen.

ZEIT ONLINE: Welche Rolle spielt Google bei dem Projekt?

Scharre: Google stellt zunächst mal vor allem die eigene KI-Software TensorFlow bereit. Die ist frei erhältlich und eine Open-Source-Anwendung, im Prinzip kann sie jeder benutzen. Das US-Militär setzt sie keineswegs in Waffensystemen ein und schon gar nicht in vermeintlich autonomen. Doch die Tatsache allein, dass Google mit dem US-Militär zusammenarbeitet, hat zu den Protesten von Mitarbeitern geführt und letztlich dazu, dass die Firma ihren bestehenden Vertrag mit dem Verteidigungsministerium nicht verlängern wird.

ZEIT ONLINE: Die Tech-Seite Gizmodo hat berichtet, dass mindestens zwei andere kommerzielle Unternehmen an Project Maven mitarbeiten, doch dort hat man von keinen Mitarbeiterprotesten gehört. Für die scheint das alte Google-Motto nicht zu gelten: "Don’t be evil."

Paul Scharre © Center for a New American Security

Scharre: Ähnliches ließe sich über die Unternehmen sagen, die sich derzeit um einen großen Cloud-Computing-Auftrag des Pentagon bewerben, da sind einige Tech-Konzerne im Rennen. Google ist womöglich ein Spezialfall, bedingt durch die eigene Geschichte. Die Mutterfirma Alphabet hat etwa beim Kauf des KI-Unternehmens DeepMind versichert, deren Technologien keinen Militärs zur Verfügung zu stellen. DeepMind ist an Project Maven zwar nicht beteiligt, aber das alte Versprechen mag nun eine Rolle gespielt haben.

ZEIT ONLINE: Ist es grundsätzlich so, dass eigentlich jede Form von KI eine klassische Dual-Use-Technologie ist, also potentiell militärisch genutzt werden kann?

Scharre: Die Ironie besteht darin, dass KI für eine militärische Verwendung nicht mal groß adaptiert werden muss, sie lässt sich gleichsam einfach einbauen. Das muss den Ingenieuren bei Google auch klar sein. Im Fall von Maven bedeutet die freie Verfügbarkeit der Google-Software sogar, dass theoretisch auch Terroristen sie herunterladen könnten. Zugleich hat die Firma vor einigen Monaten erst ihr "Google AI China Center" in Peking eröffnet, obwohl selbst die nichtmilitärischen KI-Pläne Chinas aus Sicht von Google doch eigentlich problematisch sein müssten, etwa im Hinblick auf den Einsatz von biometrischer Erkennung von Menschen. Mir scheint, dass das Unternehmen seine ethischen Standards situativ unterschiedlich auslegt.