DIE ZEIT: Herr Manzeschke, Sie begleiten als Ethiker verschiedene Projekte, in denen es um das maschinelle Erkennen von Gefühlen und die Entwicklung einfühlsamer Assistenzsysteme geht. Was glauben Sie: Können intelligente Maschinen irgendwann tatsächlich Gefühle haben?

Arne Manzeschke: Das kommt darauf an, ab wann wir Menschen eine Maschine für emotional halten. Gefühle hängen ja nicht im luftleeren Raum, sondern sind immer auf etwas bezogen. Es geht also nicht darum, ob eine Maschine Emotionen "hat", sondern ob wir sie im Umgang als emotional erleben. Wir schreiben ja auch Tieren aufgrund ihres Verhaltens Emotionen zu, obwohl wir nicht wissen, was sie innerlich wirklich empfinden.

ZEIT: Aber bei Maschinen ist doch klar, dass sie nur auf Schaltkreisen basieren und nichts fühlen.

Manzeschke: Unsere Bereitschaft, Gefühle in andere zu projizieren, ist enorm. Viele Menschen unterhalten ja schon eine liebevolle Beziehung zu ihrem Auto, streicheln es oder reden ihm gut zu. Und je intelligenter technische Systeme werden, desto eher billigen wir ihnen ein Eigenleben zu. Es reicht, wenn wir etwas nicht mehr als stur programmiert erleben, sondern in seinem Verhalten eine gewisse Varianz sehen – wie bei Tieren. Und unsere technischen Systeme sind von diesem Punkt gar nicht so weit entfernt. Sie basieren auf Programmen, können aber sehr variantenreich sein.

ZEIT: Fürchten Sie irgendwann die Machtübernahme intelligenter Maschinen?

Manzeschke: Ich glaube, die Gefahr liegt woanders: In dem Maße, in dem wir bereit sind, einem Roboter so etwas wie Emotionalität zuzuschreiben, wird sich unsere Selbstwahrnehmung verändern. Wir werden zunehmend auch menschliche Emotionen als das Ergebnis nüchterner Algorithmen betrachten und uns selbst mehr und mehr als eine Art Maschine begreifen.

ZEIT: Könnte das auch bedeuten, dass unser Gefühlsleben verarmt?

Manzeschke: Das können wir jetzt schon beobachten. Wenn Sie heute Literatur aus dem 17. Jahrhundert lesen, staunen Sie über die dort beschriebene emotionale Bandbreite. Im Laufe der Jahrhunderte hat diese Bandbreite immer mehr abgenommen. Und wenn wir heute Gefühle als maschinenlesbar verstehen, dann bedeutet das natürlich noch eine zunehmende Normierung und Standardisierung.

ZEIT: Gilt als "Zorn" künftig nur noch das, was eine Maschine als Zorn erkennt?

Manzeschke: Möglich. Man muss ja klare Parameter einführen, um ein Gefühl zu beschreiben. Und diese Parameter bedeuten eine Normierung und Verengung. Was wegfällt, ist nicht nur die individuelle Vielfalt, sondern auch der Kontext.

ZEIT: Zum Beispiel?

Manzeschke: Wenn ich etwa lächle, dann hängt dieses Lächeln sehr davon ab, ob ich meine Frau oder meine Katze anlächle. Solche feinen Gefühlsdifferenzierungen fallen leicht unter den Tisch, wenn man versucht, die Emotion "Lächeln" kontextfrei ins Digitale zu übersetzen.

ZEIT: Was erst recht für die zahllosen Spielarten eines komplexen Gefühls wie der Liebe gilt.

Manzeschke: Genau. In dem Punkt werden übrigens die emotionssensitiven Systeme heute oft gewaltig überschätzt: Was sie tatsächlich erkennen, sind ja nur die Gesichtsausdrücke einiger weniger Basisemotionen ...

ZEIT: ... Angst, Freude, Trauer, Ekel ...

Manzeschke: ... die sich gut auseinanderhalten lassen. Mit allen höheren Gefühlen, wie etwa Ironie, Melancholie oder auch Liebe, ist die bisherige Technik heillos überfordert.

ZEIT: Von der Gefahr der maschinellen Gefühlsnormierung einmal abgesehen – welche ethischen Herausforderungen sehen Sie noch?

Manzeschke: Ein großes Thema ist die Art der Beziehung zu diesen Systemen. In einem Projekt sollen beispielsweise künstliche Assistenzsysteme älteren Menschen bei der Tagesplanung helfen. Nun ist die Frage: Soll das System sich eher wie ein viktorianischer Butler verhalten, distanziert und zurückhaltend? Oder soll es eher kumpelhaft-sozialtherapeutisch auftreten und zum Beispiel sagen: "Jetzt solltest du aber ruhig mal rausgehen." Das geht dann schnell in Richtung wohlmeinender Zwang. Will man das? Und wer entscheidet am Ende darüber?

ZEIT: Müssen wir vielleicht auch lernen, dass Roboter nicht gleich Roboter ist und dass Maschinenwesen individuell unterschiedlich sein können?

Manzeschke: Ja, wir müssen diesen Umgang erst üben, und da wird es auch unangenehme Erfahrungen und Enttäuschungen geben. Wir konstruieren diese Maschinenwesen ja von vornherein mit sehr ambivalenten Erwartungen: Einerseits sollen sie intelligenter und mächtiger sein als wir, andererseits sollen sie uns natürlich stets Untertan bleiben. Wenn wir allerdings selbstlernende Systeme konstruieren, die auch noch Emotionen verstehen, dann liegt es in der Konsequenz dieser Entwicklung, dass wir nicht vorhersehen können, was diese Systeme am Ende alles hervorbringen. Vielleicht schließen sich irgendwann unsere Serviceroboter in einer Gewerkschaft zusammen und fordern die 35-Stunden-Woche, wer weiß? Wir müssen jedenfalls damit rechnen, dass uns die "prometheische Scham", wie das Günther Anders genannt hat, ereilt – und wir Schöpfer von der Perfektion unserer eigenen Geschöpfe beschämt werden.

Fernsehhinweis: Die Recherche zu diesem Text entstand aus einer Kooperation mit Arte. Am Samstag, 15. Oktober, war der Dokumentarfilm "Die Vermessung der Gefühle" auf Arte zu sehen, in dem viele der hier erwähnten Forscher in ihren Labors besucht werden.