"Der Mensch muss der Maschine eigentlich vertrauen"

Was macht Maschinen intelligent? Was befähigt sie zu autonomem Handeln? Werden Roboter irgendwann einen freien Willen entwickeln? Und wo bleibt bei alldem der Mensch? Das sind einige der eher angstbesetzten Zukunftsfragen, die sich mit der Entwicklung von – im weitesten Sinne – künstlicher Intelligenz verbinden. Catrin Misselhorn, Inhaberin des Lehrstuhls für Wissenschaftstheorie und Technikphilosophie an der Universität Stuttgart, befasst sich auch aus philosophischer Perspektive mit solchen Fragen. Misselhorns neues Buch "Grundfragen der Maschinenethik" ist gerade bei Reclam erschienen.

ZEIT ONLINE: Frau Misselhorn, was macht eine Maschine, einen Algorithmus eigentlich intelligent?

Catrin Misselhorn: Die Frage nach der Intelligenz kann man leider nicht einmal in Bezug auf den Menschen eindeutig beantworten. Denn bereits bei dem gibt es sehr unterschiedliche Dimensionen von Intelligenz, etwa mathematische, räumliche oder emotionale. Die klassische Idee der künstlichen Intelligenz war: Eine Maschine ist dann intelligent, wenn sie Aufgaben lösen kann, die bei einem Menschen Intelligenz erfordern würden. Das ist aber keine befriedigende Definition. Beispielsweise würde es bei einem Menschen ein gewisses Maß an Intelligenz voraussetzen, wenn er gut im Rechnen ist. Bei einem Taschenrechner hingegen würde man das nicht als eine große Leistung betrachten. Eine Maschine wiederum, die nur Vier gewinnt spielen kann, ist nicht besonders intelligent. Denn bei dem Spiel kann man sämtliche möglichen Züge vorprogrammieren. Beim Menschen würde man auch da wieder von einem bestimmten Maß an Intelligenz ausgehen, die fürs Gewinnen dieses Spiels notwendig ist. Um von echter künstlicher Intelligenz zu sprechen, müsste eine Maschine etwa lernen und allgemeine Probleme lösen können.

Catrin Misselhorn ist neben ihrer Lehrtätigkeit an der Universität Stuttgart zudem Direktorin des dortigen Instituts für Philosophie. © Martin Stollberg

ZEIT ONLINE: Was wäre ein allgemeines Problem?

Misselhorn: Um bei Vier gewinnt zu bleiben: Das wäre die Fähigkeit, auch noch vergleichbare andere Spiele und deren Regeln zu erlernen.

ZEIT ONLINE: Ist dementsprechend das größte Missverständnis in Bezug auf künstliche Intelligenz, dass diese notwendigerweise der menschlichen nachgebaut ist?

Misselhorn: Das würde ich so sehen, ja. Das lässt sich an einem anderen Spielebeispiel erläutern, nämlich an AlphaGo, dem Programm, das im strategischen Brettspiel Go gegen die besten menschlichen Spieler gewonnen hat. Zumindest bei der Ursprungsversion künstlicher Intelligenz ging es darum, dass durch das Verarbeiten großer Datenmengen gelernt wird, spezifische Probleme zu lösen, also etwa ein komplexes Spiel wie Go zu spielen. Wir Menschen hingegen lernen gerade nicht dadurch, dass wir große Datenmengen verarbeiten. Menschen, und das habe ich zuletzt an meiner dreijährigen Tochter beobachtet, kommen etwa beim Spracherwerb im Gegensatz zu einer künstlichen Intelligenz mit erstaunlich kleinen Datenmengen aus.

ZEIT ONLINE: Wie sollte künstliche Intelligenz demnach im maschinenethischen Sinne programmiert werden?

Misselhorn: Da muss man zwischen wissenschaftlichen und praktischen Zwecken unterscheiden. Für letztere ist es naheliegend, spezifische Anwendungen zu schaffen. Für die Wissenschaft hingegen ist es eine interessante Frage, ob man in irgendeiner Weise eine menschliche Intelligenz reproduzieren kann. Das ist ja auch das große Thema der Singularity-Bewegung, die glaubt, dass wir in absehbarer Zeit eine Superintelligenz erschaffen können. Das halte ich allerdings für eher unwahrscheinlich.

ZEIT ONLINE: Wozu wäre eine dem Menschen überlegene Intelligenz auch überhaupt gut? Außer sagen zu können: Wir haben sie gebaut.

Misselhorn: Richtig. Allerdings verbinden viele damit offenbar die Befürchtung, dass die Maschinen uns dann irgendwann beherrschen würden. Doch auch diese Bedrohung sehe ich derzeitig nicht. Der Klimawandel stellt eine weit akutere Gefahr für die Menschheit dar.

ZEIT ONLINE: Sehr konkret Angst empfinden kann man vor bereits existierenden Maschinen wie den tier- und menschenähnlichen Robotern der Firma Boston Dynamics (siehe Video unten):

Diese Maschinen bewegen sich wie Lebewesen und wirken von außen so, als wüssten sie, was sie tun. Ist es das, was man unter "grundsätzlicher Handlungsfähigkeit" einer Maschine versteht?

Misselhorn: Nein, das ist es noch nicht. In der gegenwärtigen Debatte gibt es zwei grundsätzliche Positionen. Für die eine beruht Handlungsfähigkeit darauf, dass wir bestimmte Dinge so wahrnehmen, als würden sie rational agieren. Die andere geht davon aus, dass Handlungsfähigkeit auf bestimmten inneren Zuständen beruht, die das Handeln verursachen. Meine Sichtweise nimmt eine Zwischenstellung ein. Ich schreibe Robotern, also Computern mit Aktoren und Sensoren, bereits Handlungsfähigkeit zu, wenn sie zwei Bedingungen erfüllen, die aus der philosophischen Handlungstheorie stammen. Die eine nenne ich Selbstursprünglichkeit, weil mir der Begriff der Autonomie zu anspruchsvoll ist. Mein Konzept ist graduell, es gibt also unterschiedliche Stufen, wie selbstursprünglich der Roboter sein kann. Die grundsätzlichste davon zeigt sich in der Fähigkeit der Maschine zur Interaktion mit der Umwelt, einer gewissen Unabhängigkeit von dieser und in einem Mindestmaß an Anpassungsfähigkeit, wenn sich Umweltbedingungen ändern.

ZEIT ONLINE: Und die zweite Bedingung?

Misselhorn: Das Handeln aus Gründen. Ein praktischer Grund ist in der Handlungstheorie die Verbindung einer Meinung und einer sogenannten Pro-Einstellung, beispielsweise einem Wunsch: Meinungen geben wieder, wie die Welt ist, Pro-Einstellungen hingegen, wie die Welt sein sollte. Kommen diese beiden Dinge zusammen, kann mich das als Mensch zum Handeln bewegen. Wenn ich etwa finde, dass es den Armen besser gehen sollte, und der Meinung bin, dies durch eine Spende für eine bestimmte Wohltätigkeitsorganisation zu erreichen, dann ist das für mich ein Grund, Geld zu spenden. Viele Philosophen sind der Ansicht, dass Maschinen keine Meinungen und Wünsche haben können. Meiner Ansicht nach können sie jedoch zumindest Zustände ausbilden, die funktional äquivalent zu Meinungen und Wünschen sind.

Ein Roboter muss keine Angst haben

ZEIT ONLINE: Sie sprechen also von Maschinen, die etwas tun, das einer menschlichen Handlung entspräche. Was wäre das?

Misselhorn: Ein Beispiel aus dem menschlichen Erleben wäre: Ich halte mich in einem Wald auf und sehe auf einer Lichtung ein gefährliches Tier stehen, das mit scharfen Krallen und Zähnen bewehrt ist. Diese Situation lässt sich vereinfacht durch folgenden Ablauf charakterisieren: Erstens habe ich einen Wahrnehmungsinput, ich sehe das Tier mit seinen scharfen Klauen und Zähnen, und komme auf dieser Basis zu der Meinung, dass dort ein gefährliches Tier ist. Daraufhin entwickle ich den Wunsch, vor dem wilden Tier wegzulaufen. Der Output dieses Prozesses ist, dass ich die Flucht ergreife. Dieser Output ist durch eine kausale Beziehung zwischen dem Wahrnehmungsinput, der Meinung und dem Wunsch entstanden, die meinen Grund für das Fluchtverhalten darstellt.

ZEIT ONLINE: Einem Roboter könnte man dementsprechend das Weglaufen beibringen, wenn er ein wildes Tier wahrnimmt – aber die Maschine müsste nicht auch noch Angst empfinden können? Das Ergebnis wäre ja das gleiche, nämlich Wegrennen.

Misselhorn: Richtig, es würde sich um eine Nachbildung der funktionalen Kausalbeziehung handeln, die den Menschen zur Flucht vor dem Tier bewegt hätte. Auch bei Emotionen, die ich als Prozess auffasse, kommen Elemente wie Wahrnehmungen, Meinungen und Wünsche kausal ins Spiel. Diesen Aspekt kann man auch in Maschinen nachbilden. Darüber hinaus besitzen Emotionen jedoch eine Empfindungsqualität, die Maschinen abgeht. Maschinen haben nur Quasimeinungen und Quasiwünsche. Diesen Begriff des "Quasi" entnehme ich der Ästhetik. Der amerikanische Philosoph Kendall Walton hat folgende These aufgestellt: Unsere Empfindungen gegenüber fiktionalen Figuren sind Quasiemotionen. Wenn ich etwa bei der Lektüre von Anna Karenina fürchte, dass die Hauptfigur sich vor den Zug werfen könnte, ist das keine echte Angst, sondern eine Quasiangst.

ZEIT ONLINE: Wir wissen, dass Anna Karenina nicht wirklich existiert.

Misselhorn: Trotzdem entwickele ich als Leser des Buches aber Empfindungen für die Figur. Es gibt also einen funktionalen Unterschied gegenüber unseren normalen Reaktionen. Für gewöhnlich gehen wir davon aus, dass die Auslöser unserer Emotionen real sind. Stelle ich im Wald fest, dass vor mir gar kein gefährliches Tier steht, sondern es sich um eine Spiegelung handelt, dann laufe ich auch nicht mehr weg. Bei Maschinen verhält es sich genau umgekehrt als bei unseren Einstellungen gegenüber fiktionalen Figuren: Maschinen fehlt die Empfindungsqualität, aber die funktionalen Beziehungen sind vorhanden.

Wir wissen, was wir wollen – die Maschine nicht

ZEIT ONLINE: Die intelligente Maschine operiert also im fiktionalen Modus, in einer Art permanenten Simulation? Weiß sie das auch?

Misselhorn: Maschinen haben kein Bewusstsein und ihre Intentionen entstehen in Abhängigkeit vom Menschen, weil sie auf eine bestimmte Art und Weise von diesen gebaut wurden. Wir Menschen hingegen sind nicht konstruiert, wir besitzen eine intrinsische Intentionalität. Wir verfügen auch über eine weitreichendere Autonomie als Maschinen, weil wir uns zum Beispiel selbstständig Ziele setzen können und die Fähigkeit zur Selbstreflexion besitzen, die sich grundsätzlich auf alles beziehen kann. Wir können überlegen, was wir meinen, was wir wollen, und nach immer weiteren Gründen dafür suchen.

ZEIT ONLINE: Lässt sich der Begriff der Autonomie für Maschinen noch genauer fassen? Bei Waffensystemen der Zukunft ist stets davon die Rede, dass sie autonom sein könnten. Welche Rolle hat da noch der Mensch als Bediener?

Misselhorn: Bei autonomen Waffensystemen unterscheidet man drei Arten der Beziehung zwischen Mensch und Maschine, wobei sich zeigt, dass der Punkt, an dem Autonomie beginnt, gar nicht so leicht festlegbar ist. In the loop bezeichnet, wenn ein Mensch entscheidet, welches Ziel die Maschine angreifen soll, und der Mensch den Schuss dann auch auslöst. On the loop ist, wenn die Maschine das selbstständig tut, der Mensch die Maschine jedoch überwacht und jederzeit die Möglichkeit hat, einzugreifen. Out of the loop schließlich ist gegeben, wenn der Mensch weder die Entscheidung trifft, noch die Ausführung kontrolliert. Bei in the loop ist keine Autonomie der Maschine gegeben, doch schon bei on the loop ist es nicht so eindeutig, ob der Mensch noch reelle Kontrolle über die Maschine ausübt. Nominell bleibt der Mensch zwar verantwortlich. Doch muss er nicht davon ausgehen, dass die Maschine in einer besseren Entscheidungssituation ist als er selbst? Sie wurde so konstruiert und programmiert, dass sie dem Menschen epistemisch überlegen ist, also in einer besseren Erkenntnislage ist in der Kampfsituation. Sonst wäre sie als Maschine relativ nutzlos. Der Mensch muss ihr eigentlich vertrauen.

Mensch oder Maschine, wer drückt ab?

ZEIT ONLINE: Zögert er deshalb einzugreifen, selbst wenn er glaubt, die Maschine liege falsch bei einem Ziel?

Misselhorn: Das Problem beginnt schon vorher. Der Mensch in dem Beispiel ist schon deshalb nicht unabhängig in seiner Entscheidung, weil er vom Input der Maschine abhängig ist. Der Mensch hat keine Kontrolle über die Zusammenstellung und Filterung der Daten, auf deren Basis schließlich ein Ziel ausgesucht und beschossen wird.

ZEIT ONLINE: Das bedeutet, er kann guten Gewissens gar keine Entscheidung treffen? Vor allem nicht die, eben nicht zu schießen?

Misselhorn: Der Mensch ist jedenfalls in einem Dilemma. Erkennt er die Überlegenheit der Maschine an, kann er den Schuss eigentlich nicht verweigern. Damit aber wäre seine Kontrollfunktion über die Maschine hinfällig. Die zweite Möglichkeit wäre: Der Mensch hat Angst, verantwortlich gemacht zu werden für die Entscheidungen der Maschine. Das könnte ein Anreiz sein, ihr prinzipiell zu misstrauen und jeden Schuss zu verweigern. Dann wiederum wäre die Maschine hinfällig im Sinne ihrer Erfinder, sie würde nicht ihrem Zweck entsprechend benutzt. Deshalb ist es eine Illusion, dass On-the-loop-Systeme automatisch effektive menschliche Kontrolle erlauben. Und faktisch wäre damit bereits die Autonomie der Maschine erreicht.

Was, wenn Maschinen einen freien Willen entwickeln?

ZEIT ONLINE: Es gibt die Schreckensvorstellung, dass intelligente Maschinen so etwas wie einen freien Willen entwickeln und außer Kontrolle geraten könnten. Ist das bloß ein Science-Fiction-Szenario, oder muss man sich als Maschinenethikerin damit befassen?

Misselhorn: Ich würde zunächst mal einen Unterschied machen zwischen freiem Willen und außer Kontrolle geraten. Dazwischen liegt ein großer Schritt. Auch wenn Programmierer nicht vorsätzlich ein autonomes Waffensystem so einrichten, dass es gegen die Regeln gerechter Kriegsführung verstößt, kann es außer Kontrolle geraten. Denn das Verhalten der Maschine ist nicht für jede denkbare Situation vorhersehbar. Das kommt eben durch die Selbstursprünglichkeit der Maschine zustande: Indem sie mit der Umwelt interagiert, unabhängig ist und sich anpassen kann, kann sie unvorhersehbare Handlungen vornehmen. Im Extremfall wäre niemand mehr für ihr Handeln verantwortlich – weder die Maschine selbst noch diejenigen, die sie programmiert oder benutzt haben. An dem Punkt sind wir aber noch weit von einer Willensfreiheit der Maschine entfernt.

ZEIT ONLINE: Ab wann könnte man dann von einer Maschine mit freiem Willen sprechen?

Misselhorn: Das Problem ist, dass man das Vorhandensein eines freien Willens nicht so einfach überprüfen kann. Es reicht ja nicht, dass die Maschine von sich behauptet, sie besitze einen. Ihr Verhalten und ihr innerer Aufbau müssten so beschaffen sein, dass wir guten Grund hätten, ihr einen freien Willen zuzuschreiben. Wäre das der Fall, hätten wir es letztlich mit Subjekten zu tun, die auch moralische Ansprüche gegen uns haben. Das ist aus meiner Sicht aber wirklich Science-Fiction. Denn Maschinen, wie wir sie uns heute realistischerweise vorstellen können, fehlt die Fähigkeit, sich selbst Ziele zu setzen und darüber zu reflektieren, und das ist für einen freien Willen unabdingbar.

Was nutzt ein Hirn, dem Bewusstsein fehlt?

ZEIT ONLINE: Ein freier Wille wird sich nie bauen lassen?

Misselhorn: Die Grundfrage zumindest bleibt, ob man Willensfreiheit mit einer Turingmaschine simulieren kann, und gegenwärtige Computer sind Turingmaschinen oder zumindest durch solche simulierbar. Im Moment gibt es keine Anhaltspunkte dafür, wie man vorgehen müsste, um Willensfreiheit in irgendeiner Form künstlich zu erzeugen. Eine Idee ist natürlich, einfach das menschliche Hirn zu simulieren, Nervenzelle für Nervenzelle, wie es das Human Brain Project versucht. Aber da bleibt die Frage, ob Intelligenz und auch Bewusstsein nicht gerade aus der Interaktion mit der Umwelt und anderen Menschen entstehen. Dann würde einem eine bloße Hirnsimulation wenig nutzen.

ZEIT ONLINE: Wie sähe aus maschinenethischer Sicht ein wünschenswertes künftiges Miteinander von Mensch und Maschine aus – und in welchen Bereichen wäre das?

Misselhorn: Eine positive Anwendung moralischer Maschinen, also solcher, die moralisch entscheiden oder handeln können, sehe ich in der Pflege. Uns droht der Pflegenotstand durch die alternde Gesellschaft, und es wäre eine Erwägung, technische Assistenten bis hin zu Pflegerobotern einzusetzen. Ich glaube, dass das kein schlechter Ansatz ist, auch wenn es nicht die allein seligmachende Lösung darstellt. Ebenso wichtig ist, dass die Arbeitsbedingungen und Löhne der Pflegekräfte verbessert werden, damit mehr Menschen diese Berufe ausüben wollen. Aber ich kann mir vorstellen, dass Pflegeroboter einen Beitrag dazu leisten können, dass Menschen, die auch im hohen Alter noch in ihren eigenen vier Wänden weiterleben möchten, das in Zukunft können werden. Das sollte aber dem Einzelnen freigestellt sein. Wichtig wäre, dass niemand, der nicht von einem Roboter gepflegt werden möchte, dazu gezwungen würde.

Der Pflegeroboter, Freund des Menschen

ZEIT ONLINE: Wie sähe da konkret das Miteinander aus?

Misselhorn: Das habe ich in einem conceptual design selbst versucht zu beschreiben und auch mit Kollegen aus der Informatik durchdacht. Aus meiner Sicht wäre bedeutsam, dass sich das System an die individuellen Wertvorstellungen der Nutzer anpassen kann. Ein Beispiel: Ein solches Pflegesystem würde den Menschen an die Einnahme von Medikamenten erinnern. Doch eine Frage ist, wie oft das passieren soll und was geschieht, wenn der Nutzer nicht entsprechend handelt. Soll dann gleich der Arzt gerufen werden? Der vorgegebene moralische Grundwert wäre in diesem Beispiel, dass es eine solche Erinnerungsfunktion gäbe. Doch wie diese wahrgenommen wird und welche Handlungsoptionen das System verfolgt, sollte in der Interaktion zwischen Mensch und Maschine festgelegt werden.

ZEIT ONLINE: Ist Ihnen grundsätzlich eher bange, was die künftigen Anwendungen von künstlicher Intelligenz angeht? Oder sehen Sie hoffnungsfroh in eine Zukunft, die wir gemeinsam mit moralischen Maschinen erleben werden?

Misselhorn: Es gibt positive und negative Aspekte. Maschinen können uns unangenehme Arbeiten abnehmen und den Alltag erleichtern. Zugleich gibt es aber auch Gefahren, die Akteure aus Wirtschaft und Politik gern übersehen. Ich sehe mich da durchaus als Korrektiv zu manch hochfliegenden Visionen der Techfirmen. Ich fasse meine Rolle als Philosophin und Ethikerin jedoch nicht nur kritisch, sondern auch konstruktiv auf. Ich möchte auf mögliche Probleme hinweisen und Formen des Umgangs mit ihnen entwickeln.