Noch befindet sich das Projekt in der experimentellen Phase, doch erste Ergebnisse deuten darauf hin, dass die künstliche Therapeutin überraschend gut angenommen wird. Nicht wenige Veteranen offenbarten dem Programm gegenüber mehr, als sie einem echten Menschen je erzählt hatten. Die Mischung aus kalter Sachlichkeit und simulierter Empathie empfanden viele als angenehm: Sie hatten einerseits das Gefühl, verstanden zu werden, und andererseits keine Befürchtung, abgewertet oder verurteilt zu werden – weil ihnen ja nur eine nüchterne Maschine gegenübersaß.

Einen vergleichbaren Effekt beobachten Forscher bei Schülern, die in Pilotprojekten von emotional sensitiven Robotern unterrichtet werden: In mancher Beziehung kommen die Blechkameraden sogar besser an als echte Lehrer. Nicht nur, weil die Schüler die Interaktion mit einem Roboter neu und aufregend finden, sondern auch, weil sie Kritik von ihnen leichter annehmen können – eine Software gilt als nüchtern und sachlich, während man Menschen leicht persönliche Abneigung unterstellt.

Overtrust nennt sich dieses Phänomen in der Psychologie: Computern und Robotern bringt man häufig übertriebenes Vertrauen entgegen. Viele Menschen unterstellen ihnen Unbestechlichkeit, Effizienz und größeres Wissen – selbst dann, wenn sich die künstliche Intelligenz als ziemlich dumm erweist. Das haben Forscher kürzlich in diversen Experimenten nachgewiesen.

Einmal ließen sich Probanden bei einem (fingierten) Feueralarm von einem Roboter in die Irre führen, obwohl sie selbst den rettenden Ausgang kannten. Ein anderes Mal wurden Versuchspersonen von einem Roboter in ein Wohnzimmer geleitet, in dem sie angeblich auf den Gastgeber warten sollten. Nach und nach forderte sie dann der künstliche Butler zu immer absurderen Handlungen auf – Orangensaft in eine Topfpflanze zu gießen, die ungeöffneten Briefe des Gastgebers in den Papierkorb zu werfen oder sich mit dessen Passwort in seinen privaten Laptop einzuloggen. Die überwältigende Mehrheit folgte den Anweisungen bereitwillig.

Diese erstaunliche Naivität überraschte selbst die Forscher. Menschen nähmen offenbar an, dass Roboter stets ungefährlich seien und "richtig funktionieren, so wie man davon ausgeht, dass das Smartphone funktioniert, das man gerade gekauft hat", kommentiert die englische KI-Forscherin Kerstin Dautenhahn. Dabei wisse kaum jemand, nach welchem Programm ein Roboter arbeite und wer dahinterstecke.

Die Sorglosigkeit wird noch verstärkt, wenn das Kunstwesen ein emotionales Repertoire beherrscht und niedlich aussieht. Es ist kein Zufall, dass moderne gefühlssensitive Roboter lustige Namen wie Nao, Pepper oder Myon tragen, kaum größer als Zwölfjährige sind und mit rundem Kopf und großen Augen dem Kindchenschema entsprechen. Arglos wie einem Baby oder Haustier wird ihnen begegnet: Ach, ist der süß!

Der programmierte Blechkollege soll die fehlende menschliche Wärme ersetzen

Was aber bedeutet es für uns und unser Fühlen, wenn diese zentrale menschliche Fähigkeit künftig automatisiert wird? Nur wenige nehmen bisher die gesellschaftlichen Folgen der Gefühlstechnik in den Blick, so wie die Japanologin Elena Giannoulis von der Freien Universität Berlin. Sie hat soeben 1,5 Millionen Euro Forschungsgeld erhalten, um das Zusammenspiel von Mensch und Roboter in Japan zu untersuchen. Nirgendwo sind heute mehr Roboter im Einsatz als in Japan – der emotionsbegabte Pepper ist in manchen Familien bereits als Haushaltsmitglied akzeptiert. "Es ist enorm, wie bereitwillig die Roboter in Japan angenommen werden", sagt Giannoulis. "Das hat auch mit der veränderten Sozialstruktur zu tun." Der traditionelle Familienzusammenhalt bröckelt, viele Alte leben allein – da muss der Blechkollege die fehlende menschliche Wärme ersetzen. "Für den Roboterhund Aibo gibt es mittlerweile sogar eigene Friedhöfe, so eng ist die emotionale Bindung", erzählt Giannoulis.

So weit ist es in Deutschland noch nicht. Doch auch hierzulande werden große Hoffnungen auf das Gefühlscomputing gesetzt. Allein das Bundesforschungsministerium fördert derzeit mehr als ein Dutzend solcher Projekte, die Kürzel tragen wie Kompass (Sozial kooperative virtuelle Assistenten als Tagesbegleiter), Emotisk (Emotionssensitive Systeme zum Training sozialen Verhaltens) oder EmpaT (Empathische Trainingsbegleiter für den Bewerbungsprozess). Immerhin werden in Deutschland ethische Fragen mitdiskutiert (siehe Interview). In den USA hingegen, dem Geburtsland des Affective Computing, suchen die Forscher lieber das Gespräch mit Investoren als mit Ethikern. Das gefühlvolle Rechnen verspricht nämlich auch: enormen Profit.