I, Robot – Seite 1

Wie wäre es, mit dem eigenen Geist in einen Roboter hineinzuschlüpfen? Können Sie sich vorstellen, die Welt durch die Augen einer Maschine zu sehen und diese direkt mit Ihren eigenen Gedanken zu steuern? Wie würde es sich wohl anfühlen, wenn Ihr körperliches Ich-Gefühl allmählich mit dem Roboter verschmilzt?

In einer Pilotstudie demonstrierten die israelischen Forscher Ori Cohen, Doron Friedman und ihre Partner in Frankreich, dass so etwas prinzipiell möglich ist: Versuchspersonen, die sich in einem Scanner in Israel befanden, steuerten einen humanoiden Roboter in Frankreich, und zwar nur, indem sie sich die Körperbewegungen des Roboters vorstellten.

Dem Versuch lag die Technologie der sogenannten funktionalen Echtzeit-Magnetresonanztomografie zugrunde: Diese erlaubt es, einfache Handlungsabsichten einer Versuchsperson auszulesen, indem man Aktivierungsmuster in deren Gehirn mittels einer speziellen Software klassifiziert. Daraus lassen sich Motorbefehle an einen humanoiden Roboter übertragen, der sie in körperliche Handlungen verwandelt, während die Versuchsperson gleichzeitig das gesamte Experiment durch die Augen des Roboters visuell miterleben kann.

Dieses EU-Forschungsprojekt, das ich als Ethiker über fünf Jahre begleitet habe, trug den Namen VERE (für Virtual Embodiment and Robotic Re-Embodiment, also virtuelle Verkörperung und Wiederverkörperung in Robotern). Es hat eine Tür zu bislang ungeahnten ethischen und gesellschaftlichen Problemen aufgestoßen.

Nehmen wir beispielsweise an, Sie identifizieren sich erlebnismäßig vollkommen mit dem Roboter und bewegen sich – als Roboter – frei in einem Raum, in dem sich auch andere Personen befinden. Plötzlich betritt ausgerechnet jener Mensch den Raum, der vor wenigen Monaten all Ihre Pläne und Ihr gesamtes persönliches Leben zerstört hat. Es ist der neue Ehemann Ihrer Ex-Frau. Sie fühlen wieder die Verletztheit, die Kränkung, die innere Leere nach der Trennung. Spontan spüren Sie einen aggressiven Impuls. Fast gleichzeitig steigt eine kurze Gewaltfantasie in Ihnen auf. Noch versuchen Sie sich zu beruhigen. Doch bevor Sie die automatische Bewegungsvorstellung unterdrücken können, die ganz ungewollt in Ihrem Bewusstsein entstanden ist, hat der Roboter den Mann bereits mit einem einzigen gewaltigen Schlag getötet.

Jetzt erlangen Sie die Kontrolle wieder, und Sie treten einige Schritte zurück. Für Sie fühlt es sich an, als hätten Sie zu keinem Augenblick die Chance gehabt, das Verhalten Ihres maschinellen Stellvertreters zu kontrollieren. Wie aber lässt sich entscheiden, ob Sie – objektiv gesehen – vielleicht doch die Fähigkeit besaßen, den aggressiven Impuls gerade noch rechtzeitig zu unterdrücken? Hätten Sie wissen müssen, dass Ihre Verkörperung in einem Roboter möglicherweise unvollständig und riskant ist, weil sie Ihnen vielleicht nicht die gleiche Form von Autonomie und Impulskontrolle zur Verfügung stellt wie Ihr biologischer Körper? Sind Sie in einem ethischen oder strafrechtlichen Sinne verantwortlich für die Folgen der Handlungen des Roboters?

Die mit europäischen Steuergeldern entwickelte VERE-Technologie ist für militärische Anwendungen relevant – was zum Problem werden könnte. Denken wir nur an den völkerrechtswidrigen Drohnenkrieg im Jemen, in Afghanistan, Somalia oder Pakistan. Gelingt es, einen Roboter direkt an das menschliche Selbstmodell im Gehirn zu koppeln, wird man zukünftig auch bewaffnete Flugmaschinen, Kampfroboter und viele andere Militärtechnologien wesentlich feinkörniger und quasi direkt mit dem eigenen Geist steuern können. Soll man solche Entwicklungen einfach hinnehmen?

Wie wir wissen, eliminieren die USA mit deutscher Unterstützung über die Leitstelle im pfälzischen Ramstein Bürger in anderen souveränen Staaten – ohne Anklage, Gerichtsverfahren oder rechtskräftige Urteile. Und das, obwohl tödliche Gewalt außerhalb von Zonen bewaffneter Konflikte nur als Ultima Ratio zur Abwendung unmittelbar bevorstehender Bedrohungen angewandt werden darf. Neue Technologien wie die hier beschriebene können auch zur Ausweitung dieser Art der Kriegführung beitragen.

Ein Rüstungswettlauf im Bereich der Künstlichen Intelligenz

Deshalb stellt sich in der ethischen Debatte um künstliche Intelligenz, virtuelle Realität und Robotik die Frage, ob es für derartige militärische Anwendungen ein Moratorium geben sollte. Ein solches Moratorium müsste international sein, es sollte auch auf den Rüstungswettlauf zwischen den USA und China einwirken, der im Bereich der Künstlichen Intelligenz längst begonnen hat.

Die Politik ist gefordert – etwa beim Einsatz von virtueller Realität in der Porno-Industrie

Über die Chancen und Risiken künstlicher Intelligenz (KI) und über die Ethik der Robotertechnik wird zwar allmählich sachlicher diskutiert, doch die Debatte wird durch zum Teil sachfremde Motive kalifornischer Technologiepropheten, von Industrielobbyisten oder primär weltanschaulich denkenden Journalisten kontaminiert. Politische Forderungen arus der Diskussion abzuleiten fällt allerdings auch aus anderen Gründen schwer: Die Vorhersagehorizonte sind sehr unterschiedlich, die Anwendungsfelder vielfältig. Und ob Risikoszenarios, die in weiter Ferne liegen, tatsächlich eintreten, ist ungewiss. Zudem ist eine seriöse, evidenzbasierte Politikberatung schwer zu erreichen, da die notwendige Expertise in unseren politischen Institutionen erst noch aufgebaut werden muss.

Dabei sollte es schon bald konkrete politische Forderungen geben, etwa bei der Regulierung der Porno-Industrie im Zusammenhang mit der virtuellen Realität (VR). Sexuelle Fantasien waren schon immer virtuelle Welten im Kopf. Jetzt können sie auch zu Produkten werden, in die der Kunde direkt eintaucht. Wir müssen jedoch verhindern, dass Handlungen, die im normalen Leben strafbar wären, in solchen Formaten konsumiert werden dürfen. Virtuelle Gewaltpornos inklusive haptischen Feedbacks mittels einer Hardware, die der Anatomie von Menschen und ihrer Geschlechtsorgane nachgebildet ist, könnten das Selbstmodell der Konsumenten stärker verändern als bislang gedacht.

Außerdem gibt es beunruhigende Prognosen, nach denen der Einsatz von KI und Robotik – etwa in den Bereichen Industrie und Altenpflege, im Rechtssystem, in der Unterhaltungsindustrie oder auch im Bildungswesen – bis ins Jahr 2030 eine weitere Öffnung der Einkommensschere bewirken wird, massive Arbeitslosigkeit und großflächige Lohnsenkungen, gefolgt von einem Einbruch der Lohnsteuer sowie einer Überlastung sozialer Sicherungssysteme. Klassische Berufsbilder werden möglicherweise bald zu bedrohten Arten, und in Zukunft wird weniger die körperliche als vielmehr die geistige Arbeit wirtschaftliche Werte erzeugen.

Man kann natürlich darauf hinweisen, dass dies nach einer gerechteren Verteilung von Produktivitätsgewinnen ruft, dass die Politik sich ernsthaft der Planung eines bedingungslosen Grundeinkommens zuwenden sollte, ebenso wie der gezielten Umschulung von ökonomisch bedrohten Bevölkerungsschichten. Wie realistisch ist aber die Annahme, dass solch düstere Prognosen Realität werden?

Von den hundert weltweit führenden KI-Experten glauben einer Umfrage zufolge neunzig daran, dass künstliche Systeme bis zum Jahr 2070 in jeder Hinsicht das menschliche Intelligenzniveau erreichen werden, die Hälfte erwartet dies bereits für den Zeitraum zwischen 2040 und 2050. Viele der Forscher glauben sogar, dass in den dreißig darauffolgenden Jahren eine Superintelligenz entstehen wird, eine künstliche Intelligenz also mit übermenschlichen Fähigkeiten.

Solche Umfragen sind natürlich mit Vorsicht zu genießen. Dennoch ist die Debatte um die Risiken einer Superintelligenz beispielhaft für politische Fragen, die nur über mehrere Legislaturperioden hinweg beantwortet werden können – und deshalb schwer in einem Willensbildungsprozess zu verankern sind.

Das Ausmaß des Schadens könnte immens sein

Die Stiftung für Effektiven Altruismus, die ich berate, vergibt aus diesem Grund Forschungsgelder für Projekte, die sich auf die Analyse und Prävention von Risiken der KI-Entwicklung konzentrieren. Aber auch die Politik muss zukünftig mehr Ressourcen für die wissenschaftlich-ethische Begleitung folgenschwerer Technologieentwicklungen bereitstellen. Denn in einem Positionspapier zur Ethik der künstlichen Intelligenz weisen Autoren der Stiftung für Effektiven Altruismus darauf hin, dass eine Risikoanalyse es nahelegt, potenzielle hohe Schadensausmaße – selbst bei geringer Wahrscheinlichkeit ihres Inkrafttretens – ernst zu nehmen.

Eine verwandte politische Forderung stellt sich im Zusammenhang eines Moratoriums für synthetische Phänomenologie: Das bedeutet, dass die akademische Forschung die Erzeugung künstlichen Bewusstseins – zum Beispiel in Avataren, Robotern oder postbiotischen Mischwesen – weder direkt anstreben noch auch nur als wissenschaftlichen Kollateralschaden riskieren sollte.

Ich beschäftige mich seit einem Vierteljahrhundert intensiv mit dem Problem des Bewusstseins. Daher glaube ich, dass es so etwas wie Bewusstsein auf nicht biologischen Trägersystemen weder morgen noch übermorgen geben wird. Doch ich könnte mich täuschen. So erschien die synthetische Biologie, also die Erzeugung künstlichen Lebens, vor zwei Jahrzehnten noch wie pure Science-Fiction. Heute ist sie Realität.

Denn unerwartete Synergien zwischen unterschiedlichen Forschungsbereichen könnten schneller zur synthetischen Phänomenologie führen als bislang angenommen. Das Ausmaß des Schadens könnte immens sein. Das Problem besteht unter anderem darin, dass die Entstehung künstlicher Subjekte mit der Fähigkeit, Dinge zu erleben, die Gesamtmenge des Leidens im Universum dramatisch erhöhen könnte; erst recht, wenn diese sich unkontrolliert vermehren sollten, wie intelligente Viren, die automatisch Kaskaden von Kopien ihrer selbst erzeugen.

Die Frage lautet: Wie viel Autonomie wollen wir den Maschinen zugestehen?

Schon jetzt gibt es interessante Parallelen zwischen Roboter- und Tierethik. Das ungelöste Kernproblem des massenhaften Einsatzes von Versuchstieren in der Forschung besteht darin, dass Tiere nicht von den Erkenntnissen des menschlichen Fortschritts profitieren und die einzelnen tierischen Individuen (von denen man in fast allen Fällen annehmen darf, dass sie sich subjektiv als Individuen mit eigenen Präferenzen erleben) nicht in unseren Entschluss einwilligen können, sie auf dem Altar unserer eigenen Interessen zu opfern (siehe dazu den Beitrag von Wolf Singer, ZEIT Nr. 3/17).

Ähnliches würde für die ersten künstlichen Subjekte gelten: Sie wären leidensfähig, aber Wesen zweiter Klasse, reine Forschungsinstrumente mit Warencharakter. Von biologischen Versuchstieren unterscheidet sie heute, dass ihre potenziellen Interessen von keiner Ethikkommission begutachtet und von keiner politischen Partei repräsentiert werden.

Noch hören sich solche Überlegungen realitätsfremd an, sie könnten aber schon bald bedeutsam werden: Wie würden wir es wohl finden, wenn eine ethisch reflektierende Superintelligenz die fortschrittlichen neuen Richtlinien der Max-Planck-Gesellschaft beim wissenschaftlichen Einsatz von Versuchstieren auf uns Menschen anwenden würde, etwa zu schonender Haltung und schmerzloser Tötung?

Vor drei Jahrzehnten dachten viele der besten Köpfe, dass die KI-Forschung so etwas wie der praktische Zweig der Philosophie des Geistes sei, die äußerste Grenze des klassischen Projekts der Selbsterkenntnis. "Kognitionswissenschaft" war ein neues Wort für Aufklärung. Nun erkennt man, dass die Verbindung von KI, Robotik und virtueller Realität auch unser Menschenbild stärker verändern wird als alle traditionellen geisteswissenschaftlichen Diskurse zuvor. Die neue Kognitionstechnik wird nämlich nicht nur die äußere Lebenswelt kolonisieren, sondern auch den subjektiven Innenraum. Sie hat längst unser Denken und Fühlen verändert – und dies wird soziokulturelle Konsequenzen haben.

Die Technologie konfrontiert uns mit philosophischen Fragen

Jenseits der politisch-ethischen Dimension existiert noch eine ganze Reihe wesentlich tiefgründigerer Fragen. Denn die direkte Kopplung des menschlichen Selbstmodells an künstliche Umwelten ist ein Beispiel für einen neuen Typ von Bewusstseinstechnologie. Gegenwärtig sind die Effekte noch schwach, und es gibt viele technische Probleme. Was aber würden wir tun, wenn Systeme zur virtuellen oder robotischen Wiederverkörperung flüssig, mit vielen Freiheitsgraden und in Echtzeit funktionierten? Welche neuen Formen von Intersubjektivität und sozialer Kooperation könnten entstehen, wenn plötzlich mehrere menschliche Personen und ihre Selbstmodelle gleichzeitig über Brain-Computer-Interfaces (Schnittstellen zwischen Rechnern und Gehirnen) miteinander verbunden, vielleicht sogar verschmolzen werden könnten? Die Technologie wirft uns auf uns selbst zurück. Sie verändert das Bild des Menschen und konfrontiert uns nicht zuletzt mit klassischen philosophischen Fragen darüber, was eine Person überhaupt ist.

Zurück in die Gegenwart. Ein zentraler Begriff bei der Diskussion um KI, VR und Robotik lautet "mentale Autonomie": Wie viel Selbstbestimmung wollen wir den Maschinen zugestehen? Wann ist es rational oder sogar ethisch geboten, Autonomie an technische Systeme abzugeben? Und wie können wir den Erkenntnisfortschritt in diesem Bereich nutzen, um unsere eigene geistige Autonomie zu erhöhen? Fragen, die sich bei der Thematik zwangsläufig stellen.

Geistige Autonomie muss auf allen Ebenen kultiviert werden. Sie macht politische Selbstbestimmung überhaupt erst möglich. Dieser Prozess setzt jedoch gesellschaftliche Randbedingungen voraus. Deshalb bleibt es auf politischer Ebene richtig, sich zunächst einer der dringendsten Aufgaben zuzuwenden: die informationstechnologische Souveränität Deutschlands zurückzugewinnen.

Der größte Fehler von Angela Merkel war in meinen Augen die mittlerweile fast vergessene Tatsache, dass sie Deutschland der Überwachung durch amerikanische Geheimdienste und Großkonzerne ausgeliefert hat. Die Bundesregierung hätte schon vor vielen Jahren systematisch in die Entwicklung einer deutschen Suchmaschine und eines eigenen, transparenten Betriebssystems investieren müssen.

Der Brexit und die US-Wahl haben gezeigt, dass wir in eine neue historische Phase eingetreten sind: Tendenziell kann man nun in vormals offenen, demokratischen Gesellschaften über den Einsatz von social bots, präzisen statistischen Methoden und rechnergestützter Zielgruppenwerbung die politische Willensbildung automatisieren. Dadurch können sich auch die politischen Kontexte, in denen neue Technologien zum Einsatz kommen, unerwartet ändern. Insgeheim dachte ein Großteil der Bevölkerung, dass die Allgegenwart amerikanischer Überwachungssysteme sie nicht persönlich berührt. Nach dem Aufstieg der populistischen Rechten in den USA sieht die Situation jedoch ganz anders aus. Diesen Fehler sollten wir nicht wiederholen.