Manchmal reagieren Chefs auch auf Erpressung durch Untergebene: Vor rund zwei Monaten gelangte ein intern kursierender Brief der Google-Mitarbeiter, den mittlerweile 4.500 Beschäftigte unterschrieben haben sollen, an die Öffentlichkeit. Darin kritisierten die Angestellten die lange geheim gehaltene Entscheidung der Firmenspitze, am sogenannten Project Maven des US-Militärs mitzuarbeiten. Dabei geht es im Kern darum, künstliche Intelligenz beim Durchforsten von Aufklärungsbildern einzusetzen. Die beiden Hauptforderungen der Unterzeichner des Protestbriefes lauteten: Google solle erstens aus dem Project Maven aussteigen und zweitens eine "klare Strategie" formulieren und publizieren, die besagen solle, "dass weder Google noch seine Vertragspartner jemals Kriegstechnologie bauen werden". 

Die erste Forderung erfüllte Google vor wenigen Tagen, die zweite nun nur halb: Pinchai hat am Donnerstag einen Blogpost veröffentlicht, in dem er dem eigenen Unternehmen zwar ethische Grundsätze bei der Entwicklung von künstlicher Intelligenz (KI) auferlegt – doch künftige Geschäfte mit dem Militär nicht ausschließt.

Der mit AI at Google: our principles (KI bei Google: unsere Prinzipien) überschriebene Text ist für einen Firmenchef ein erstaunliches Dokument. Allein deshalb, weil Pinchai gar nicht erst versucht, der öffentlichen Auseinandersetzung mit der eigenen Unternehmenspolitik aus dem Weg zu gehen. Einerseits gehorcht Pinchai damit schlicht den Gepflogenheiten des Silicon Valley, wo man zumindest vorgibt, mit den eigenen Beschäftigten jederzeit offen zu kommunizieren. Andererseits bestätigt Pinchai mit der Veröffentlichung seiner Thesen nun implizit die Macht, die Google als eines der führenden Unternehmen in der KI-Forschung besitzt: Die Entscheidungen, die dort gefällt werden, könnten die Leben von unzähligen Menschen auf der ganzen Welt verändern. Und das beginnt nur damit, dass spezifisch programmierte KIs bald ganze Berufsstände überflüssig machen könnten.

"Nutzen" lässt sich schwerlich hypothetisch betrachten

Darauf jedoch geht Pinchai in seinem Text nicht ein. Stattdessen stellt er seinen "Prinzipien" die Verheißungen künstlicher Intelligenz voran, die Fortschritte etwa bei der Krebsdiagnostik und Früherkennung möglicher weiterer Erkrankungen durch maschinelle Analyseverfahren. Doch sobald es tatsächlich um ethische Fragen geht, kann oder will Pinchai keine konkreten Aussagen treffen.

Schon das erste Prinzip, der Gesellschaft von Nutzen zu sein ("be socially beneficial"), zeigt ein grundsätzliches Problem bei der Einordnung von Technologien, die größtenteils noch gar nicht zur Verfügung stehen, sondern sich im Stadium der guten Idee befinden: "Nutzen" lässt sich schwerlich hypothetisch betrachten. Erst wenn etwas da ist, lässt sich dessen Nutzen abwägen. Und weil wie bei vielen Erfindungen der Tech-Welt auch bei künstlicher Intelligenz zunächst vor allem eine Effizienzsteigerung von Prozessen absehbar und erwünscht ist, wird es ethisch gleich furchtbar schwierig: Die Ideologie des Silicon Valley (und Pinchais Text spiegelt sie eindeutig wieder) beschreibt jede Verbesserung von Effizienz als prinzipiell gut. Ärzte, deren Aufgabe bei der Früherkennung eben zum Beispiel von Krebs bislang eine oft überlebenswichtige für Patienten ist, werden den Einsatz von KI auf ihrem Feld ethisch dagegen differenzierter betrachten. Nicht nur weil sie fürchten müssen, die Hoheit darüber zu verlieren, Diagnosen zu stellen.

Die weiteren sechs der insgesamt sieben Ethikprinzipien, die Pinchai auflistet, beschreiben eigentlich Selbstverständlichkeiten. Dass Algorithmen zum Beispiel frei von Voreingenommenheiten programmiert sein sollten gegenüber ethnischer Zugehörigkeit, Geschlecht und sexueller Orientierung von potentiellen Nutzerinnen und Nutzern, sollte außerhalb jeder Diskussion stehen. Doch solange Algorithmen von Menschen erstellt werden, ist deren Neutralität tatsächlich gar nicht notwendigerweise gewährleistet. KI-Systeme von Google sollten zudem sicher sein, höchsten wissenschaftlichen Ansprüchen genügen und die Privatsphäre von Nutzern respektieren. Diese Punkte als ethische Grundsätze verstanden wissen zu wollen, wirkt dann doch fast putzig. Denn eigentlich fallen sie unter das, was man so Produktversprechen nennt. Doch weil das von Tech-Firmen zuletzt häufiger enttäuscht wurde, deshalb wohl stehen diese Zusicherungen in dieser "Prinzipien"-Liste.

Die eigentlich ethische Diskussion hat Pinchai sich für den Schluss seines Textes aufgehoben, in dem er das Grunddilemma einer Technologie wie KI beschreibt: Sie ist auf geradezu unendlich vielfältige Weise einsetzbar, unter anderem auch für militärische Zwecke. Pinchai betont zunächst, Google wolle die Zahl "potentiell schädlicher oder missbräuchlicher Anwendungen" von künstlicher Intelligenz begrenzen. Faktoren seien dabei unter anderem, welchen unmittelbaren Zweck die Anwendungen hätten und wie groß ihre erwartbare Verbreitung sei.