Die Angst der Maschine – Seite 1

Lauron hat Angst. Er traut sich nicht, den nächsten Schritt zu machen. Immer wieder setzt er an, hebt einen Fuß – doch dann verlässt ihn der Mut, und er stellt den Fuß zurück auf den alten Platz. Dabei summen seine Lüfter, und der Körper hebt und senkt sich, als würde er nur ganz flach atmen. Lauron ist ein Roboter. Und jetzt gerade wirkt er ziemlich gestresst.

"Manchmal denken wir, Lauron zickt rum", sagt Arne Rönnau. Er ist Abteilungsleiter im Bereich Robotik am Karlsruher Forschungszentrum für Informatik und damit so etwas wie Laurons Vormund. Die sechsbeinige Maschine soll später einmal auf dem Mars aktiv sein. Mit einem Headset kann sich Rönnau nicht nur virtuell neben seinen Schützling stellen, sondern auch direkt in dessen Innenleben blicken: Und offenbar hat die Maschine gute Gründe, sich nicht weiterzubewegen. "Risiko" blinkt über ihrem Kopf auf Rönnaus Display auf. Im Headset kann er den Zustand von Laurons Gelenken sehen, Farben zeigen die Belastung an. Ein Bein leuchtet rot auf – offenbar steht der Roboter gefährlich instabil. Vor seinen Füßen liegen große Steine. Zusätzliche Daten verraten, dass das Roboterhirn gerade überdurchschnittlich belastet ist. Für Rönnau ist der Fall klar: Lauron hat Angst zu stolpern.

Angst – ein Roboter? Kann eine Maschine wirklich so etwas wie Gefühle haben? Oder ist dies nur einmal wieder eine jener typischen Übertreibungen, mit denen Forscher (und Journalisten) nüchterne technische Entwicklungen interessant zu machen versuchen? Mitnichten.

Informatiker und Roboterforscher arbeiten heute weltweit in ihren Labors daran, Maschinen Gefühle beizubringen und mithilfe künstlicher Intelligenz menschliche Emotionen zu simulieren. Nicht, damit Roboter menschlicher werden oder damit sie Menschen besser verstehen können. Nein, die Gefühle sollen den Maschinen helfen, bessere Entscheidungen zu treffen.

Von Angst spricht Arne Rönnau trotzdem nicht gern: "Unser Roboter bekommt Angst – aber auf ganz rationaler Basis." Der Forscher bezeichnet diesen Vorgang lieber als erwachendes Selbstbewusstsein: Der Roboter werde sich seines inneren Zustands bewusst und berechne zugleich Risiken, die ihm von außen drohen.

Aber ist das Wort "Selbstbewusstsein" nicht erst recht zu hoch gegriffen? Darf man bei einer Maschine wirklich von so etwas wie Bewusstsein sprechen? Rönnau sieht das ganz nüchtern. Statt philosophische Grundsatzdebatten zu führen, beschreibt er lieber, was in dem Roboter vorgeht: Lauron lerne zum Beispiel mithilfe künstlicher Intelligenz, Bilder zu interpretieren und so zu erkennen, ob er vor einem Abhang steht, vor großen Steinen oder anderen Hindernissen wie etwa einem Lavastrom. Zusätzlich schickten ihm Sensoren wichtige Informationen aus dem Inneren seines Roboterkörpers, erklärt Rönnau: "Lauron weiß: Eines meiner Beine steht nicht gut. Und dann entscheidet er, ob er den nächsten Schritt trotzdem tun kann."

Darf man das Selbstbewusstsein nennen? Immerhin ahmen die Roboterforscher damit zwei wesentliche Eigenschaften des menschlichen Erlebens nach: die Innenwahrnehmung des eigenen Körpers als Basis für das Wissen um die Verkörperung der eigenen Existenz; und die Fähigkeit, eigenständig Entscheidungen treffen zu können, um möglicherweise lebensbedrohenden Situationen aus dem Weg zu gehen.

Das mag zwar eine eher rudimentäre Art von Selbstbewusstsein sein. Dennoch würden viele Roboter davon enorm profitieren, sagt Rönnau: "Bisher folgen sie einem Programm, das von außen vorgegeben wird, ohne noch einmal zu prüfen, wie es ihnen gerade geht." Dieser Ansatz kann teuer werden. Groß ist das Risiko, eine Maschine während einer Mission zu verlieren. Zwar können manche Roboter schon heute unvorhergesehene Ereignisse erkennen und darauf reagieren. "Aber sie können nur binär entscheiden", sagt Rönnau. "Wenn etwas kaputt ist, wird alles abgeschaltet."

Ein Roboter wie Lauron – der später einmal ins Weltall reisen und den Mars erkunden soll – wäre mit solch einem Verhalten aufgeschmissen. Träfe er auf dem Mars auf ein unvorhergesehenes Hindernis, würde er einfach stehen bleiben und warten, bis weitere Informationen von der Erde kommen. Das kann lange dauern. Wäre der Roboter schon über einen Stein gestolpert und könnte sich selbst nicht wieder aufrichten, kämen die neuen Befehle womöglich zu spät, und die teure Mission endete frühzeitig.

Emotionen, eine unschätzbar wertvolle Informationsquelle

Deshalb soll Lauron auf sein Innenleben achtgeben – beim Menschen würde man wohl sagen: auf sein Bauchgefühl hören –, um in solchen Situationen autonomer und intelligenter zu reagieren. "Er schaut nach innen und trifft eine risikobewusste Entscheidung", sagt Rönnau. Dabei könne sich die Beurteilung des akzeptablen Risikos sogar im Lauf der Zeit verändern: Gegen Ende einer Mission könnte die Maschine auch bewusst ein höheres Risiko für ein wichtiges Ziel eingehen, etwa wenn es darum geht, Wasser auf dem Mars nachzuweisen. "Menschen überleben schließlich auch deshalb", sagt Rönnau, "weil sie Risiken einschätzen können." Dabei soll Lauron, ähnlich wie ein Mensch, auch aus eigenen Erfahrungen lernen. Wenn der Roboter zum Beispiel ein Risiko unterschätzt und dadurch beschädigt wird, soll er beim nächsten Mal in einer ähnlichen Situation vorsichtiger agieren.

Und genauso wie ein Vater, der sein Kind nicht jedem Risiko aussetzt, sondern es vor besonders schmerzhaften Gefahren eindringlich warnt, will auch Rönnau seinem Roboter einen gewissen Erfahrungsschatz mitgeben: Die richtige Einschätzung von Risiken wird zunächst im Computer simuliert; wenn der Roboter dann später zu einer echten Mission aufbricht, soll er den Umgang mit Hindernissen bereits geübt haben.

Roboterforscher wie Rönnau vollziehen damit einen Schritt nach, den die Evolution auch bei der Entwicklung des menschlichen Denkens beschritten hat: Die erste Voraussetzung für so etwas wie Selbstbewusstsein ist die Wahrnehmung des eigenen Körpers und der eigenen Verletzlichkeit. Und zugleich mit dieser Körperwahrnehmung kommen die Emotionen ins Spiel, die Psychologen heute als eine Art "verkörperter Intelligenz" beschreiben. Denn anders als die reine Vernunft, die nur mit jenen Fakten arbeiten kann, die gedanklich bewusst sind, artikuliert sich in den Emotionen ein viel größerer Erfahrungsschatz. Darin kommen auch Aspekte zum Ausdruck, die wir nur halb oder unbewusst wahrnehmen, die nicht eindeutig benennbar, aber dennoch wichtig sind – etwa die intuitive Skepsis gegenüber einem Verhandlungspartner, der zwar schöne Worte macht, dessen Mimik uns aber unbewusst verdächtig erscheint; oder die Angst vor einer schwer zu überblickenden Situation, die wir nicht berechnen können und die automatisch den Pulsschlag in die Höhe treibt.

Solche Signale zu ignorieren und nur auf rationale Kriterien zu vertrauen ist daher längst nicht immer richtig. Manchmal ist das Bauchgefühl der viel bessere Ratgeber. Diese Erkenntnis machen sich nun Forscher zu eigen, die an künstlicher Intelligenz oder autonomen Systemen arbeiten: Emotionen können eine unschätzbar wertvolle Informationsquelle darstellen, mit deren Hilfe sich die "Intelligenz" eines künstlichen Systems beträchtlich steigern lässt.

Deshalb versuchen etwa die Microsoft-Forscher Daniel McDuff und Ashish Kapoor, autonomen Fahrzeugen menschliche Angst zu vermitteln. Die beiden Informatiker übertragen Gefühle vom Menschen auf ein System, das in Zukunft Fahrzeuge steuern soll. Dazu ließen die Forscher vier Menschen in einem Simulator fahren und maßen dabei ihren Pulsschlag als Ausdruck ihrer Erregung. Mit diesen Daten fütterten sie einen Algorithmus, der lernen sollte, in welchen Fahrsituationen ein Mensch gestresst ist. Bald konnte das Computerprogramm diese Situationen zuverlässig vorhersagen. Fortan versuchte das System genau jene Verkehrskonstellationen zu vermeiden, in denen ein Mensch sich fürchten könnte. Die Forscher von Microsoft Research in Redmond nennen ihre Entwicklung visceral machines – "instinktive Maschinen".

Dass die künstliche Intelligenz (KI) heute dem Menschen in allerlei Spielen überlegen ist, hat in der Vergangenheit mehrfach für Aufsehen gesorgt. Jüngster Coup der KI-Entwickler ist das Poker-Programm Pluribus, das es mit sechs menschlichen Gegnern aufnehmen kann. Doch so beeindruckend die Siege der KI im Schach, im Go oder beim Pokern auch sind – die Regeln all dieser Spiele sind von überschaubarer Komplexität.

Anders der Straßenverkehr: Dort treten immer neue, unvorhersehbare Situationen auf. Bisher versuchen die Entwickler KI-Systeme zum autonomen Fahren dadurch zu trainieren, dass sie Abertausende Unfälle sowie unzählige Meilen unfallfreie Fahrt simulieren und die Maschine daraus ihre Schlüsse ziehen lassen. Menschen hingegen lernen das Fahren dank Vorsicht und Voraussicht auch ohne jede Grenzerfahrung eines Unfalls. Das wollen die Forscher nutzen.

Was Menschen den Maschinen unter anderem voraushaben, sind ihre jahrtausendelang trainierten emotionalen Reflexe. Die berühmte Kampf-oder-Flucht-Reaktion beispielsweise ermöglichte es unseren Vorfahren, in gefährlichen Situationen sekundenschnell intuitiv zu entscheiden, was zu tun ist. "Wir haben heute kaum noch solche Situationen", erklärt Daniel McDuff, "aber die körperlichen Signale sind noch da, die uns einst geholfen haben, bei Bedrohungen zu reagieren." Unser Puls schlägt schneller, wir schwitzen – der Körper bereitet sich vor. "Wenn wir nun nachahmen, wie die menschliche Physiologie auf eine Situation reagiert, können wir von den negativen Gefühlen profitieren, bevor es zu einem Unfall kommt."

Nachdem die Informatiker ihren Algorithmus mit den menschlichen Gefühlen trainiert hatten, war er eindeutig leistungsfähiger: "Das System, das mit dieser Angst angereichert war, hatte 25 Prozent weniger Unfälle als das gleiche System ohne Angst", berichtet McDuff.

Die Grenze zwischen sinnvoller und übertriebener Angst

Das mag paradox anmuten. Galt bisher nicht immer als entscheidender Vorteil der Maschinen, dass sie Risiken emotionslos, kühl und logisch kalkulieren?

Dass das nicht immer stimmt, ist sowohl für Maschinen wie für Menschen interessant: Im Vorteil ist der kühl Kalkulierende nämlich nur dort, wo er sich auf bekanntem, berechenbarem Terrain bewegt. Wenn man es jedoch mit neuen, unbekannten Situationen zu tun bekommt, geht das alte Kalkül nicht mehr auf und kann sich sogar als kontraproduktiv erweisen.

Das gilt nicht nur für Menschen in sich schnell wandelnden Gesellschaften, sondern auch für künstliche Systeme. "Maschinen kommen nur gut zurecht in Umgebungen, die sie gewohnt sind", sagt Daniel McDuff. Deshalb sind solche Systeme stets nur in ihrer Spezialdisziplin gut und in den Zusammenhängen, in denen sie trainiert wurden – ein altbekanntes Problem des maschinellen Lernens.

Menschen hingegen sind Allrounder und können Wissen und Fähigkeiten oft von einer Situation auf andere übertragen. "Und dabei helfen uns Emotionen", erklärt McDuff, "dank ihnen finden wir uns in unbekannten Situationen zurecht, selbst wenn wir noch nie etwas Vergleichbares erlebt haben." Deshalb hofft der Informatiker, dass KI-Systeme dank emotionaler Intelligenz künftig auch mit neuen, unvorhersehbaren Entwicklungen besser zurechtkommen.

Zu diesem Unvorhersehbaren gehört übrigens auch die menschliche Reaktion auf KI-Systeme. Denn je besser autonome Fahrzeuge in Standardsituationen reagieren, umso mehr verlieren die Menschen den Respekt vor ihnen. Diese paradoxe Reaktion lässt sich in Kalifornien beobachten, wo schon relativ viele autonome Fahrzeuge auf den Straßen unterwegs sind. Da sie als solche gekennzeichnet sind, wissen andere Verkehrsteilnehmer, dass diese Fahrzeuge im Normalfall bremsen, selbst wenn man ihnen die Vorfahrt nimmt. Schon häufen sich Berichte aus San Francisco von furchtlosen Radfahrern, die auf diese Weise autonome Fahrzeuge stoppen.

"Wir Menschen lernen schnell, uns anzupassen und unsere Umwelt zu manipulieren", schreibt der Verkehrsforscher Jason Thompson von der University of Melbourne auf theconversation.com, "das wird im künftigen Straßenumfeld voller autonomer Fahrzeuge nicht anders sein." Wenn Menschen also die programmierte Rücksicht der Maschinen einkalkulierten, könne das zum Verkehrskollaps führen. Thompson sieht nur zwei Möglichkeiten: Autonome Fahrzeuge müssten hin und wieder bewusst einen Menschen überfahren, um die Angst wiederzubeleben – oder Maschinen und Menschen müssten im Verkehr strikt getrennt werden. Beides dürfte nicht praktikabel sein.

So werden künstliche Intelligenzen in Zukunft immer häufiger Entscheidungen im Graufeld zwischen strenger Computerlogik und menschenähnlichen Emotionen treffen müssen. Je nach Situation führt mal das eine, mal das andere zu einer angemessenen Reaktion.

Wie schwer dabei die richtige Entscheidungsfindung werden kann, zeigen die Arbeiten der Informatikerin Eva Hudlicka von der University of Massachusetts Amherst. Sie versucht gerade zu ermitteln, wo die Grenze zwischen sinnvoller und übertriebener Angst verläuft – und wie maschinelle Systeme damit umgehen sollten.

Vom Menschen weiß man, dass dessen Angst sich oft aus einer verzerrten Wahrnehmung speist, die uns die Natur aus gutem Grund in die Wiege gelegt hat: Wir nehmen nicht nur echte Gefahren besonders stark wahr, sondern auch vermutete Bedrohungen. Dunkle Ecken meiden wir instinktiv (selbst wenn dort gar nichts lauert), und auch gegenüber Fremden sind wir besonders auf der Hut (selbst wenn sie herzensgut sind). "Wir haben einen Bias in der Wahrnehmung von Gefahr", erklärt Hudlicka. Alles Unbekannte erscheint uns erst einmal bedrohlich und sensibilisiert unsere Sinne und Abwehrreflexe in besonderem Maße. Diese kognitive Verzerrung habe durchaus ihren Sinn, meint Hudlicka. "Der Bias hilft uns, zu priorisieren und schnell zu reagieren." Wird die Angst allerdings übermächtig, ist sie nicht mehr hilfreich, sondern schädlich: Statt zu reagieren, erstarrt der Mensch in Panik.

Das Ängstliche und Mutige als Team

Wo genau das richtige Maß an Angst liegt, versucht Hudlicka mithilfe künstlicher Intelligenz zu ermitteln. Dazu haben sie und ihre Kollegen in einer Computersimulation eine Such- und Rettungsaktion im verschneiten Gelände durchgespielt. Von einer künstlichen Intelligenz gesteuerte Helfer sollten – von möglichen weiteren Lawinen bedroht – mit Pistenraupen das Gelände nach Verschütteten durchsuchen. "Die ängstlicheren Akteure waren dabei zwar manchmal schneller und konnten besser priorisieren, wenn Gefahr drohte", sagt Hudlicka, "doch sie achteten nicht darauf, ob noch genügend Benzin im Tank ist." Die Angst vor dem möglichen Lawinentod überlagerte die Sorge um die eigene Energie – wie bei einem Menschen, der in einer Stresssituation vergisst zu essen.

Die beste Strategie, so zeigte Hudlickas Versuch, ist es, Ängstliche und Mutige in einem Team zusammenzuspannen. Dann gleichen sich die verschiedenen Verzerrungen aus. Die mutigeren Agenten hatten den Benzinstand im Blick und wagten sich eher in gefährlicheres Gelände vor, während die ängstlicheren die Mutigen vor allzu riskanten Aktionen bewahrten.

Welches Angstprofil für den Einzelnen sinnvoll ist, hängt jedoch letztlich von dessen Aufgabe ab. "Für den Sicherheitsinspektor einer Fluglinie ist ein Bedrohungs-Bias hilfreich", sagt Hudlicka. Wer überall Gefahr wittert, übersieht seltener ein Risiko. Wer hingegen andere von etwas überzeugen möchte, braucht vielleicht einen "Freude-Bias", weil jemand, der mit leuchtenden Augen von etwas schwärmt, einfach überzeugender ist.

Dass der Widerspruch zwischen Emotion und Logik gar nicht so groß ist wie immer gedacht, postuliert auch Joost Broekens. Der Professor für Affective Computing an der Delft University of Technology ist überzeugt, dass die Übersetzung von Gefühlen in Programme leichter ist, als viele meinen. Denn hinter Emotionen stecke erstaunlich viel Logik, meint Broekens. Schließlich entstünden diese Emotionen "aus der Interaktion mit der Umwelt" und besäßen somit eine rationale Grundlage. Broekens bringt die Logik der Gefühle auf eine einfache Formel: "Warum bist du glücklich? Weil etwas geschehen ist, das gut ist für deine Situation." Die Situation hat also an Wert gewonnen. Und so etwas könne man durchaus programmieren.

Eine Sorge ist allerdings bei vielen der Forscher zu spüren, die sich damit beschäftigen, Maschinen mit Emotionen auszustatten: Sie haben Angst, missverstanden zu werden. Alle betonen, dass es ihnen nicht um die gefürchtete "starke KI" gehe, die den Menschen immer ähnlicher werde, bis sie ihm schließlich überlegen sei.

"Natürlich können Maschinen nicht wirklich fühlen", betont Ashish Kapoor, der Algorithmen mit menschlichen Ängsten trainiert. Auch Joost Broekens kämpft immer wieder gegen Missverständnisse an. Andere Forscher werfen ihm vor, Roboter zu sehr zu vermenschlichen. Broekens widerspricht. Mit der Forderung mancher Forscher, den Begriff "Emotion" ausschließlich für lebendige Wesen zu reservieren, kann er wenig anfangen. Die starke Analogie des Wortes Emotion zur menschlichen Empfindung helfe, deren Funktion besser zu verstehen – und zu adaptieren.

Aber ist es ein Wunder, dass angesichts von "gefühlsbegabten" Maschinen die menschlichen Emotionen so hochgehen? Schließlich konnten wir uns bisher – bei allen Fortschritten der künstlichen Intelligenz – immer noch damit trösten, dass Maschinen ja nichts fühlen, dass Angst, Freude oder Trauer immer noch uns vorbehalten bleiben. Was, wenn nun auch diese letzte menschliche Bastion angegriffen wird?

Nicht alle Menschen reagieren auf die ersten emotionalen Gehversuche der Maschinen mit Ablehnung. Viele sind fasziniert von dem Versuch, der KI das Fühlen beizubringen. Der Karlsruher Roboterforscher Arne Rönnau erlebt das immer wieder, wenn er mit Lauron Konferenzen besucht. "Wir Menschen sind sehr offen dafür, Maschinen eine Persönlichkeit und echte Gefühle zu unterstellen", sagt der Informatiker. Und nur gar zu gern sehen wir Emotionen am Werk, auch da, wo gar keine sind.

Wer etwa neben dem kleinen Roboter steht und sieht, wie Lauron flach atmet und sogar ein wenig zu zittern scheint, der kommt kaum umhin, Mitleid mit dem gestressten Maschinenwesen zu empfinden. Dabei ist dafür wenig Anlass: Die winzigen Bewegungen sollen lediglich die Motoren schonen, die im Stillstand heiß laufen würden.