Vor wenigen Tagen berichteten amerikanische Robotiker davon, wie sie autonome Fahrzeuge in die Irre führten. Die Forscher veränderten Verkehrsschilder in nur wenig sichtbarer Weise, doch die optischen Systeme des Autos interpretierten beispielsweise ein Stoppschild als ein Verkehrszeichen zur Geschwindigkeitsbeschränkung. Das Interessante daran: Die störenden Veränderungen wurden von einem Programm vorgeschlagen, das auf einer Analyse der Bildverarbeitungssoftware des Fahrzeugs beruht. Deshalb waren sie so effektiv.

Das ist jetzt erst einmal kein praktisches Problem, denn mit autonomen Fahrzeugen oder anderen mobilen Robotern lässt sich auch auf unkompliziertere Weise allerhand Unfug anstellen. Doch die zugrunde liegende Idee führt sehr weit, wenn man über sie nachdenkt.

Betrachten wir einmal den Roboter und seine Umgebung als ein Gesamtsystem – in der Tat ist von Robotikern schon der Gedanke geäußert worden, dieses Gesamtsystem selbst als einen einzigen Roboter anzusehen. In einer automatisierten Fabrik liegt der Gedanke sogar nahe. Nun, so ein Individuum-Umwelt-System durchläuft nacheinander verschiedene Zustände. Dieser Entwicklungspfad (man kann ihn sich als das Ablaufen eines Algorithmus denken) lässt sich durch Eingriffe in den Roboter oder seine Umwelt beeinflussen, stören, hacken. Da gibt es viele Angriffspunkte, etwa die Sensoren der Maschine oder eben die Umwelt, in der sie sich bewegt, wie jeder weiß, der schon mal einem Staubsaugerroboter lose Kabel in den Weg gelegt hat: Roboter brauchen, wie alle Lebewesen, eine artgerechte Umgebung – sonst gibt's Probleme.

Was aber, wenn Roboter selbst ihre Umwelt verändern, auf die sie dann wiederum reagieren (ein harmloses Beispiel ist der Roboterfußball)? Dann kann die Entwicklung schnell einen unvorhersehbaren Weg nehmen, auch wenn nur eine kleine Anfangsstörung in das System eingebracht wird – Rückkopplung.

Was ist die Umwelt eines Roboters? Von außen betrachtet alles, was auf ihn einwirkt oder worauf er einwirkt. Doch aus der Sicht des Programms – oder des Programmierers – ist die Umwelt des Roboter das, was ihm in seinen Sinnen, Pardon: Sensoren gegeben ist. Der Roboter scheint, philosophisch gesprochen, radikaler Sensualist zu sein (denn er weiß nicht, dass ihm die Sensorinterpretationen in seinem On-board-Rechner als angeborene Ideen vorgegeben werden). Für ihn zählt das, was er misst. Allerdings ist es seinen Einheiten, die Sensordaten vereinbaren, schnurzegal, woher die Bits kommen, die hereinströmen. Die könnten auch virtuell in dem Sinn sein, dass der Roboter sie selbst erzeugt. Es könnten Pokémon sein, die er fangen will. Oder systematische, durch Software erzeugte Störungen der ankommenden Bilddaten.

Künstliche Intelligenz ist eine Geisteswissenschaft

Es ist oft davon die Rede, dass künstliche Intelligenz den Menschen infrage stellen könnte – nicht konzeptionell, sondern physisch, nämlich wenn ihre Maschinen Eigenzwecke verfolgen und den Menschen als Störfaktor im Zweifelsfall ausschalten. Woher könnten diese Zwecke stammen? Denkbar ist ein Szenario, in dem sich Roboter, ausgestattet mit künstlicher Intelligenz, in einer physischen Welt nicht bloß nach deren Eigenschaften, sondern auch nach selbst erzeugten Signalen richten, die nichts Äußeres widerspiegeln. Wie wir Menschen. Das können Wahnvorstellungen sein, fixe Ideen, gehörte Stimmen. Roboter können verrückt werden, theoretisch jedenfalls. Das kennen wir vom Menschen: je mehr Genie, desto mehr Wahnsinn.

Am Dienstag hat der deutsche Philosoph Thomas Metzinger ein Gedankenexperiment vorgestellt: Angenommen, es existiert eine Superintelligenz, die dem Menschen auch auf dem Gebiet der Moralphilosophie überlegen ist. Weiter angenommen, sie sei grundsätzlich menschenfreundlich in dem Sinne, dass sie kein Leid erzeugen, sondern nur das Beste will. Denkbar ist, dass sie zu dem Schluss kommen würde, der Mensch sei so beschaffen, dass das erzeugte und erlittene Leid unermesslich größer sei als das Glück, und zwar zwangsläufig – ein Gedanke, der Philosophen nicht fremd ist.

Daraus könne sich ergeben, dass Nichtexistenz der Existenz vorzuziehen sei, auch wenn das dem Lebenswillen der Individuen widerspricht. So weit Metzinger (oder das, was ich daraus entnehme – sein Aufsatz enthält noch viel mehr). Gesetzt diesen Fall: Könnte, müsste diese Superintelligenz dann nicht die Menschen auf einen Pfad leiten, auf dem sie aufhören, sich zu vermehren? In dem Fall müsste das allerdings ein sehr sanfter Pfad des Aussterbens sein, sanft genug, um nicht das Ziel zu konterkarieren, Leid abzuwenden.

Alles das ist Fiktion. Es sind Gedankenspiele. Diese und andere werden angeregt durch diese neuen seltsamen Mitbewohner – die Roboter – und die künstliche Intelligenz, mit der sie ausgestattet werden können. Der Sinn all dieser Gedankenspiele ist nicht, Angst vor einer fernen Zukunft zu schüren. Sondern dass wir uns darüber aufklären, was das ist, der Mensch. Schon allein aus diesen zivilisatorischen Gründen und nicht bloß wegen der internationalen Standortkonkurrenz, ist künstliche Intelligenz ein Forschungsgebiet, das nach Kräften gefördert werden muss. Sie ist nicht zuletzt eine praktische Geisteswissenschaft.