Dass Google direkt für das US-Verteidigungsministerium arbeitet, ist erst seit einigen Wochen bekannt. Nachdem Tausende Mitarbeiter des Unternehmens dagegen protestierten, verkündete es nun, den bis 2019 laufenden Vertrag mit dem Pentagon nicht zu verlängern. Seit 2017 hatte Google künstliche Intelligenz (KI) für das sogenannte "Project Maven" des Verteidigungsministeriums geliefert. Die Technologie soll das Videomaterial, das unbewaffnete US-Überwachungsdrohnen aufzeichnen, effizienter als bisher nach militärisch bedeutungsvollen Objekten absuchen. Das, so fürchten Kritiker, könne der Beginn einer neuen Art von Kriegsführung sein, in der Maschinen und nicht mehr Menschen entscheiden, wer und was ein militärisches Ziel sei – und es eigenständig bekämpfen könnten.

Der US-Sicherheitsexperte Paul Scharre, Senior Fellow am Washingtoner Thinktank Center for a New American Security (CNAS), warnt indes davor, dass KI-Forscher allein Generälen die Frage überlassen, wie die Software militärtechnologisch eingesetzt werden soll. Scharre beschäftigt sich in seinem neuen, im April in den USA erschienen Buch "Army of None: Autonomous Weapons and the Future of War" mit der Zukunft des Krieges.

ZEIT ONLINE: Herr Scharre, was ist "Project Maven" eigentlich – und wie wichtig ist es für das US-Verteidigungsministerium?

Paul Scharre: Project Maven steht innerhalb des Ministeriums zunächst vor allem für eine Neuerung bei der Beschaffung. Bürokratische Hürden wurden dafür beseitigt, um nicht nur mit den üblichen Rüstungsunternehmen zusammenarbeiten zu können, sondern auch mit Tech-Firmen wie Google – und so möglichst rasch neue Technologien wie etwa künstliche Intelligenz und Cloud-Computing für das Militär nutzbar zu machen. Im Fall von Project Maven geht es speziell darum, auf dem Markt frei verfügbare KI-Tools für Bildanalysen einzusetzen, um den riesigen Mengen an Videomaterial Herr zu werden, die Drohnen dem US-Militär liefern. Das ist mittlerweile eine derart große Masse, dass die Analysten nicht mehr hinterherkommen. Also setzt man dafür nun KI ein, die dank Machine Learning immer besser dabei wird, Objekte zu erkennen und zu klassifizieren. Künstliche Intelligenz ist darin schon seit Jahren besser als Menschen.

ZEIT ONLINE: Welche Rolle spielt Google bei dem Projekt?

Scharre: Google stellt zunächst mal vor allem die eigene KI-Software TensorFlow bereit. Die ist frei erhältlich und eine Open-Source-Anwendung, im Prinzip kann sie jeder benutzen. Das US-Militär setzt sie keineswegs in Waffensystemen ein und schon gar nicht in vermeintlich autonomen. Doch die Tatsache allein, dass Google mit dem US-Militär zusammenarbeitet, hat zu den Protesten von Mitarbeitern geführt und letztlich dazu, dass die Firma ihren bestehenden Vertrag mit dem Verteidigungsministerium nicht verlängern wird.

ZEIT ONLINE: Die Tech-Seite Gizmodo hat berichtet, dass mindestens zwei andere kommerzielle Unternehmen an Project Maven mitarbeiten, doch dort hat man von keinen Mitarbeiterprotesten gehört. Für die scheint das alte Google-Motto nicht zu gelten: "Don’t be evil."

Paul Scharre © Center for a New American Security

Scharre: Ähnliches ließe sich über die Unternehmen sagen, die sich derzeit um einen großen Cloud-Computing-Auftrag des Pentagon bewerben, da sind einige Tech-Konzerne im Rennen. Google ist womöglich ein Spezialfall, bedingt durch die eigene Geschichte. Die Mutterfirma Alphabet hat etwa beim Kauf des KI-Unternehmens DeepMind versichert, deren Technologien keinen Militärs zur Verfügung zu stellen. DeepMind ist an Project Maven zwar nicht beteiligt, aber das alte Versprechen mag nun eine Rolle gespielt haben.

ZEIT ONLINE: Ist es grundsätzlich so, dass eigentlich jede Form von KI eine klassische Dual-Use-Technologie ist, also potentiell militärisch genutzt werden kann?

Scharre: Die Ironie besteht darin, dass KI für eine militärische Verwendung nicht mal groß adaptiert werden muss, sie lässt sich gleichsam einfach einbauen. Das muss den Ingenieuren bei Google auch klar sein. Im Fall von Maven bedeutet die freie Verfügbarkeit der Google-Software sogar, dass theoretisch auch Terroristen sie herunterladen könnten. Zugleich hat die Firma vor einigen Monaten erst ihr "Google AI China Center" in Peking eröffnet, obwohl selbst die nichtmilitärischen KI-Pläne Chinas aus Sicht von Google doch eigentlich problematisch sein müssten, etwa im Hinblick auf den Einsatz von biometrischer Erkennung von Menschen. Mir scheint, dass das Unternehmen seine ethischen Standards situativ unterschiedlich auslegt.

"Der Gedanke, das Pentagon stoppe seine KI-Bemühungen, ist albern"

ZEIT ONLINE: Ist der Konflikt innerhalb der Google-Belegschaft womöglich auch ein Beispiel für eine Art prinzipiellem Kulturkampf zwischen Silicon Valley und Washington? Und spielt womöglich die Präsidentschaft Donald Trumps eine Rolle?

Scharre: Ich glaube nicht, dass es um Trump geht. Ich bezweifle zwar, dass er im Silicon Valley sonderlich wohlgelitten ist, doch der Konflikt zwischen Washington und Silicon Valley ist grundsätzlicherer Natur. Man muss die Vorgänge bei Google in einem größeren Rahmen betrachten. In dem ist der Disput um Kryptographie und die Frage, ob Tech-Firmen US-Strafverfolgern einen unverschlüsselten Zugang zu Nutzerdaten schaffen müssen, ein weiteres Beispiel. Ich fürchte, dass nun die Causa Maven eher noch dazu beiträgt, dass ein konstruktiver Dialog zwischen beiden Seiten weiter erschwert wird, gerade über KI-Sicherheit. Dabei bräuchte es dringend ein Gespräch zwischen Forschern und Sicherheitsexperten darüber, welcher Einsatz dieser Technologie sinnvoll und vertretbar ist – und welcher nicht. Jeder Gedanke, das Pentagon könne nun, da Google sich zurückzieht, seine KI-Bemühungen stoppen, ist albern.

ZEIT ONLINE: Bedeutet der Google-Ausstieg für das Projekt einen technologischen Rückschlag?

Scharre: Es gibt genug andere Privatunternehmen, die bereit sind, mit dem US-Verteidigungsministerium zusammenzuarbeiten. Dadurch, dass das Pentagon erhebliches Geld in die Technologie steckt, schafft es Nachfrage und einen Markt, den womöglich auch neu zu gründende Start-ups besetzen könnten. Google wird schlicht durch andere Firmen ersetzt werden.

ZEIT ONLINE: Project Maven ist erst im April vergangenen Jahres gestartet worden, doch die Technologie wird heute bereits bei Überwachungsdrohnen des US-Militärs genutzt, die im Nahen Osten und in Afrika im Einsatz sind. In welchen Zeiträumen rechnet das US-Verteidigungsministerium sonst?

Scharre: Üblicherweise vergehen bei Pentagon-Projekten vergleichbarer Art sieben bis zwölf Jahre vom Beginn der Planung bis zur Einsatzfähigkeit. Mitunter dauert es sogar länger. Es ist also tatsächlich bemerkenswert, wie schnell Maven einsatzbereit war. Wesentlich dafür sind nicht so sehr etwaige technologische Fortschritte, die gemacht wurden, sondern die organisationsbezogenen Neuerungen des Verteidigungsministeriums. Die Probleme bei der Verarbeitung all der Daten, die Drohnen liefern, waren außerdem ein Hauptgrund dafür, dass das Pentagon seine Aktivitäten in dem Bereich in den vergangenen Jahren nicht noch viel weiter vorangetrieben hat. Der Einsatz von künstlicher Intelligenz und Automation erlaubt es nun, Daten nicht nur effizienter zu analysieren, sondern die Sammelbemühungen auszubauen.

ZEIT ONLINE: Was versprechen sich die Militärs davon?

Scharre: Grundsätzlich ist es so: Je mehr Informationen man etwa im Falle einer kriegerischen Auseinandersetzung über die aktuelle Situation auf dem Schlachtfeld besitzt, desto besser ist es. Ich persönlich bin insofern über die Proteste der Google-Mitarbeiter irritiert, als dass sich eigentlich niemand wünschen kann, dass das US-Militär im Kriegsfall potenziell im Dunkeln stochert. Das Ergebnis ist im Zweifel stets, dass mehr falsche Entscheidungen gefällt werden, mit mehr unerwünschten Wirkungen. Je genauer die Informationen sind, desto wahrscheinlicher wird es, dass die richtigen militärischen Ziele gefunden und bekämpft werden können.

ZEIT ONLINE: Aber belegen nicht Recherchen zu US-Lufteinsätzen, wie sie etwa die New York Times über diejenigen im Irak veröffentlicht hat, dass es immer wieder zivile Opfer gibt, offenbar weil dem US-Militär oft Informationen vor Ort fehlen, vom Boden? Was nützt die beste KI-gestützte Aufklärung aus der Luft, wenn man am Ende nicht weiß, ob sich unten in einem Gebäude gegnerische Kämpfer verstecken oder nicht doch unschuldige Zivilisten?

Scharre: Es gibt eine Vielzahl solcher Recherchen gerade zu Drohneneinsätzen, die lassen sich im Einzelnen aber häufig nicht überprüfen. Doch es stimmt natürlich, das Risiko ziviler Opfer besteht immer. Im Zusammenhang mit Project Maven ist das Hauptargument von Kritikern jedoch, dass das der Einstieg in autonom agierende Waffensysteme sei, und das stimmt schlicht nicht. Nach wie vor treffen Menschen die Entscheidung, ob ein Ziel bekämpft wird oder nicht. Wenn man die Technologie objektiv betrachtet, die bei Maven eingesetzt wird, dann verringert sich durch sie die Wahrscheinlichkeit von zivilen Opfern beträchtlich. Einfach weil der Informationsstand größer wird.

"Heute stehen bereits simple autonome Waffensysteme zur Verfügung"

ZEIT ONLINE: Die aktuelle US-Militärdoktrin sieht diesen sogenannten man in the loop noch vor, den Menschen als Letztentscheider über Angriff oder Nichtangriff. Doch wie lange wird das so bleiben, sollten andere Staaten diese Entscheidungen irgendwann einer künstlichen Intelligenz, also den Maschinen, überantworten?

Scharre: Es stimmt, Pentagon-Offizielle betonen diesen US-Ansatz des Menschen als Entscheider heute noch. Aber ebenso geben sie zu, dass andere Staaten das womöglich anders handhaben könnten in Zukunft. Und dass das US-Verteidigungsministerium an dem Punkt seine Position überdenken wird, wenn andere Nationen autonome Waffensysteme tatsächlich bauen sollten.

ZEIT ONLINE: Wann wird dieser Punkt erreicht sein?

Scharre: Im Prinzip stehen heute bereits relativ simple autonome Waffensysteme zur Verfügung, die etwa Radaranlagen, Kriegsschiffe oder U-Boote angreifen könnten. In diesen Fällen sind die Ziele eindeutig als militärische zu identifizieren und befinden sich in einer überschaubaren Lage etwa auf dem oder im Meer. Ein erster entscheidender Einschnitt aber könnte sein, sobald Tarnkappen-Angriffsdrohnen zur Verfügung stehen werden. Eine Reihe von Nationen arbeitet bereits an experimentellen Vorstufen solcher Drohnen, neben den USA etwa Großbritannien, Frankreich, Israel, Russland und China. Man kann davon ausgehen, dass in zehn bis 15 Jahren tatsächlich solche Tarnkappen-Angriffsdrohnen einsatzbereit sein werden, und dann werden sich Militärs die Frage stellen müssen, was eigentlich geschehen soll, falls in einer Gefechtssituation die Kommunikation zu diesen Drohnen abbrechen sollte.

ZEIT ONLINE: Wie könnte das aussehen?

Scharre: Die Schlachtfelder der Zukunft werden dadurch gekennzeichnet sein, dass es die beteiligten Parteien auf die Kommunikationswege des jeweiligen Gegners absehen werden, um dessen vernetzte Waffensysteme untauglich zu machen. Wenn man sie nicht mehr fernsteuern kann, ist die nächste Frage: Inwiefern gewährt man den Maschinen in einem solchen Fall eine Entscheidungsbefugnis, eigenständig Ziele zu bekämpfen?

ZEIT ONLINE: Wie beantworten die verschiedenen Staaten diese bislang noch hypothetische Frage?

Scharre: Die USA ebenso wie ihre westlichen Verbündeten sind da sehr zurückhaltend. Aus Russland hört man bereits andere Töne, dort haben hochrangige Militärs bereits gesagt, dass sie autonom agierende robotische Einheiten planen, die eigenständig Operationen ausführen sollen. Diese rote Linie werden die heutigen NATO-Staaten mutmaßlich nicht als erste überschreiten. Doch wir steuern auf den Punkt zu, an dem man sich entscheiden muss.